OpenAI, công ty đứng sau ChatGPT, đang tăng cường nỗ lực tự phát triển chip nội bộ nhằm giảm sự phụ thuộc vào các nhà cung cấp chip lớn như Nvidia và giúp tiết kiệm chi phí.
Theo đó, OpenAI sẽ hợp tác cùng Broadcom và Taiwan Semiconductor Manufacturing Company (TSMC) để thiết kế, sản xuất con chip AI đầu tiên, dự kiến ra mắt vào năm 2026. Bên cạnh đó, công ty cũng tận dụng những con chip của AMD và Nvidia để đáp ứng nhu cầu ngày càng tăng cao về cơ sở hạ tầng tính toán.
Việc phát triển chip nội bộ giúp OpenAI mở rộng quyền kiểm soát nguồn cung và tối ưu hóa chi phí – một chiến lược phổ biến của các gã khổng lồ công nghệ như Amazon, Meta, Google và Microsoft.
Theo các nguồn tin của Reuters, chiến lược đa dạng hóa của OpenAI là bước đi quan trọng để đảm bảo tính bền vững cho các hệ thống AI của công ty trước tình trạng khan hiếm chip trên toàn cầu và giá cả leo thang.
Mối quan hệ đối tác trong kế hoạch sản xuất chip
OpenAI đã bắt đầu làm việc với Broadcom từ nhiều tháng qua để phát triển chip AI tập trung vào khả năng suy luận – một yếu tố quan trọng cho các ứng dụng AI tiên tiến.
Broadcom không chỉ hỗ trợ OpenAI trong quá trình tinh chỉnh thiết kế chip mà còn đảm bảo rằng con chip này có thể xử lý lượng thông tin lớn một cách nhanh chóng, điều cần thiết khi hàng chục nghìn chip AI hoạt động song song trong hệ thống.
Bên cạnh Broadcom, TSMC sẽ đóng vai trò nhà sản xuất cho các con chip tùy chỉnh của OpenAI.
Dự kiến, chip đầu tiên của công ty sẽ hoàn thành vào năm 2026, nhưng mốc thời gian có thể thay đổi tùy vào quá trình phát triển và thử nghiệm. Nhờ vào quan hệ đối tác với TSMC, OpenAI có thể linh hoạt điều chỉnh kế hoạch và tránh được rủi ro xây dựng cơ sở sản xuất riêng.
Hiện tại, OpenAI vẫn phụ thuộc vào chip của Nvidia, nhà cung cấp chính trên thị trường chip AI với hơn 80% thị phần. Tuy nhiên, sự thiếu hụt chip của Nvidia khiến OpenAI và các công ty công nghệ lớn như Microsoft và Meta phải tìm đến các nhà cung cấp khác để đảm bảo khả năng phát triển AI không bị gián đoạn.
Một phần của chiến lược này là sự bổ sung chip MI300X mới của AMD qua dịch vụ đám mây Azure của Microsoft, cho phép OpenAI giảm bớt phụ thuộc vào Nvidia. AMD kỳ vọng doanh số bán chip AI đạt 4,5 tỉ USD vào năm 2024, với việc ra mắt dòng chip mới vào quý 4 năm 2023, công ty này đang nỗ lực cạnh tranh trong một thị trường do Nvidia thống trị.
Thách thức về chi phí
Chi phí đào tạo các mô hình AI và duy trì các dịch vụ như ChatGPT rất lớn, bao gồm phần cứng, điện và dịch vụ đám mây. OpenAI dự kiến sẽ lỗ 5 tỉ USD trong năm nay, với phần lớn chi phí đến từ nhu cầu tính toán khổng lồ.
Để cắt giảm chi phí, công ty đã lập một đội ngũ thiết kế chip nội bộ với khoảng 20 kỹ sư, bao gồm các chuyên gia đã từng tham gia phát triển Bộ xử lý Tensor (TPU) của Google. Đứng đầu nhóm là Thomas Norrie và Richard Ho, những kỹ sư có kinh nghiệm sâu rộng trong lĩnh vực thiết kế chip AI.
Lợi ích và những ảnh hưởng đối với ngành công nghệ
Sự kết hợp giữa việc phát triển chip nội bộ và sử dụng chip từ các nhà cung cấp khác giúp OpenAI duy trì sự linh hoạt và giảm thiểu rủi ro từ việc thiếu hụt chip. Đây là một bước đi quan trọng trong chiến lược cạnh tranh của OpenAI so với các đối thủ lớn như Amazon và Google, các công ty đã sẵn sàng đầu tư mạnh mẽ vào công nghệ AI để duy trì vị trí dẫn đầu.
Quyết định phát triển chip nội bộ của OpenAI cho thấy cách công ty này tiếp cận linh hoạt với các nguồn lực từ bên ngoài và đầu tư vào năng lực nội bộ, qua đó tạo ra ảnh hưởng rộng lớn hơn trong ngành công nghệ. Đây là một chiến lược có thể thúc đẩy sự phát triển của nhiều công nghệ tiên tiến, đồng thời định hình lại thị trường chip AI và các giải pháp điện toán trong những năm tới.
Theo Reuters