Microsoft đã công bố hai con chip tại hội nghị Ignite ở Seattle vào ngày 15/11. Một trong số đó là chip trí tuệ nhân tạo Maia 100, có thể cạnh tranh với các sản phẩm hàng đầu của Nvidia. Con chip thứ hai là Cobalt 100 Arm, hướng tới các tác vụ tính toán thông thường và có thể cạnh tranh với bộ xử lý Intel.
Rani Borkar, Phó chủ tịch Microsoft chia sẻ với CNBC trong một cuộc phỏng vấn rằng các phiên bản máy ảo chạy trên chip Cobalt sẽ có sẵn trên thị trường thông qua đám mây Azure của Microsoft vào năm 2024. Bà Borkar hiện tại vẫn chưa cung cấp mốc thời gian sẽ phát hành con chip Maia 100.
Google đã công bố bộ xử lý tensor đầu tiên dành cho AI vào năm 2016. Amazon cũng đã tiết lộ chip dựa trên Graviton Arm và bộ xử lý Inferentia AI vào năm 2018, đồng thời công bố Trainium, dành cho các mô hình đào tạo, vào năm 2020.
Các chip AI đặc biệt từ các nhà cung cấp đám mây có thể giúp đáp ứng nhu cầu khi thiếu GPU. Tuy nhiên, Microsoft và các công ty cùng ngành trong lĩnh vực điện toán đám mây không có kế hoạch cho các công ty mua máy chủ chứa chip của họ, không giống như Nvidia hay AMD.
Bà Borkar giải thích, công ty đã xây dựng chip dành cho điện toán AI dựa trên phản hồi của khách hàng.
Microsoft đang thử nghiệm cách Maia 100 có thể đáp ứng nhu cầu của chatbot AI của công cụ tìm kiếm Bing (hiện được gọi là Copilot thay vì Bing Chat), trợ lý mã hóa GitHub Copilot và GPT-3.5-Turbo, một mô hình ngôn ngữ lớn từ OpenAI do Microsoft hậu thuẫn, bà Borkar chia sẻ.
Microsoft và OpenAI hiện cố gắng thu hút doanh nghiệp sử dụng các mô hình AI tạo sinh. Tháng trước, CEO Microsoft Satya Nadella cho biết lĩnh vực này đang tăng trưởng mạnh mẽ. Riêng GitHub Copilot đã tăng 40% trong quý III/2023 so với quý trước đó. "Chúng tôi có hơn một triệu người dùng Copilot trả phí ở hơn 37.000 tổ chức, doanh nghiệp. Con số này đang được mở rộng đáng kể, đặc biệt bên ngoài nước Mỹ", Nadella nói.
Ngoài việc thiết kế chip Maia, Microsoft còn phát minh ra phần cứng làm mát bằng chất lỏng tùy chỉnh có tên Sidekicks.
Microsoft hiện đang thử nghiệm ứng dụng Teams và dịch vụ Cơ sở dữ liệu Azure SQL trên Cobalt. Microsoft cho biết cho đến nay, chúng đã hoạt động tốt hơn 40% so với các chip dựa trên Arm hiện có của Azure, đến từ công ty khởi nghiệp Ampere.
Trong một năm rưỡi qua, khi giá và lãi suất tăng cao hơn, nhiều công ty đã tìm ra các phương pháp giúp chi tiêu trên nền tảng đám mây của họ. Phó chủ tịch Dave Brown cho biết tất cả 100 khách hàng hàng đầu của AWS hiện đang sử dụng chip dựa trên Arm, điều này có thể mang lại sự cải thiện hiệu suất về giá 40%.
Tuy nhiên, việc chuyển từ GPU sang chip AI AWS Trainium có thể phức tạp hơn việc chuyển từ Intel Xeons sang Graviton. Mỗi mô hình AI đều có những đặc điểm riêng, ông Dave Brown cho biết. Nhiều người đã làm việc để tạo ra nhiều công cụ khác nhau hoạt động trên Arm vì sự phổ biến của chúng trong các thiết bị di động và điều đó không hoàn toàn đúng dành cho AI.
Bà Rani Borkar nói: “Chúng tôi đã chia sẻ những thông số kỹ thuật này với hệ sinh thái và với nhiều đối tác trong hệ sinh thái, điều này mang lại lợi ích cho tất cả khách hàng Azure của chúng tôi”.
Borkar cho biết bà không có thông tin chi tiết về hiệu suất của Maia so với các lựa chọn thay thế như H100 của Nvidia. Được biết, mới đây Nvidia cũng tiết lộ con chip H200 của họ sẽ bắt đầu xuất xưởng vào quý 2 năm 2024.
Theo CNBC