Con chip trị giá 10.000 USD đứng sau các mô hình AI

0:00 / 0:00
0:00
  • Nam miền Bắc
  • Nữ miền Bắc
  • Nữ miền Nam
  • Nam miền Nam
VietTimes – Cung cấp sức mạnh cho những các bot AI đang gây sốt toàn cầu là một con chip trị giá khoảng 10.000 USD. Con chip này đã trở thành một trong những công cụ quan trọng nhất trong ngành trí tuệ nhân tạo: Nvidia A100.
Ảnh: CNBC
Ảnh: CNBC

Phần mềm có thể viết các đoạn văn bản hoặc vẽ tranh tương tự con người đã tạo ra một cơn sốt trong ngành công nghệ.

Microsoft và Google đang cạnh tranh trong việc đưa mô hình trí tuệ nhân tạo tối tân vào công cụ tìm kiếm. Trong khi đó, những startup tỉ USD như OpenAI hay Stability AI liên tục công bố phần mềm AI với nhiều tính năng đặc biệt.

Cung cấp sức mạnh cho những phần mềm này là một con chip trị giá 10.000USD đã trở thành một trong những công cụ quan trọng nhất trong ngành trí tuệ nhân tạo: Nvidia A100.

Nathan Benaich, một nhà đầu tư xuất bản bản tin và báo cáo về ngành AI, cho biết A100 đã trở thành “ngựa ô” cho các chuyên gia trí tuệ nhân tạo trong thời điểm hiện tại. Theo New Street Research, Nvidia chiếm 95% thị trường bộ xử lý đồ họa có thể được sử dụng cho máy học.

A100 đang được sử dụng trong các mô hình học máy đứng sau ChatGPT, Bing AI và Stable Diffusion, nhờ khả năng tiến hành đồng thời hàng loạt tính toán đơn giản, đóng vai trò quan trọng với việc huấn luyện và sử dụng mạng thần kinh nhân tạo.

Công nghệ tiền nhiệm A100 ban đầu được sử dụng để hiển thị đồ họa 3D phức tạp trong trò chơi. Nó thường được gọi là bộ xử lý đồ họa hoặc GPU, nhưng ngày nay A100 được định cấu hình và nhắm mục tiêu vào các tác vụ học máy và chạy trong các trung tâm dữ liệu chứ không phải bên trong các PC Gaming như trước.

Cần có hàng trăm GPU để huấn luyện các mô hình trí tuệ nhân tạo, chẳng hạn như các mô hình ngôn ngữ lớn. Các con chip cần phải đủ mạnh để xử lý hàng terabyte dữ liệu một cách nhanh chóng nhằm nhận dạng các mẫu. Sau đó, các GPU như A100 cũng cần “suy luận” để tạo văn bản, đưa ra dự đoán hoặc xác định đối tượng một cách chính xác.

Mỗi doanh nghiệp phát triển AI cần từ hàng trăm đến hàng nghìn chip A100 để xử lý lượng lớn dữ liệu và tạo ra nội dung theo yêu cầu. Họ có thể mua trực tiếp hoặc thuê quyền sử dụng từ các nhà cung cấp dịch vụ đám mây.

Một số người còn coi số chip A100 có thể tiếp cận là dấu hiệu cho thấy tiến bộ. "Một năm trước, chúng tôi chỉ có 32 chip A100", Emad Mostaque, CEO của Stability AI - công ty phát triển Stable Diffusion, nói hồi tháng 1. Giờ đây, họ đã sử dụng hơn 5.400 chip A100, chưa kể số lượng chip thuê từ các nhà cung cấp đám mây.

Stability AI là công ty phát triển Stable Diffusion, một công cụ tạo hình ảnh đã thu hút sự chú ý vào mùa thu năm ngoái và được cho là có mức định giá hơn 1 tỉ USD.

Nvidia sẽ được hưởng lợi từ cơn sốt AI này. Doanh thu quý IV/2022 của Nvidia giảm 21% so với cùng kỳ trước đó, nhưng mảng chip AI lại tăng trưởng 11%, đạt 3,6 tỉ USD. Nhờ đó, cổ phiếu của hãng cũng tăng 65%, vượt nhiều doanh nghiệp trong lĩnh vực bán dẫn.

Giám đốc điều hành Nvidia, Jensen Huang, không ngừng nói về AI trong cuộc họp vào thứ Tư, cho thấy rằng sự bùng nổ gần đây của trí tuệ nhân tạo là trung tâm trong chiến lược của công ty.

Các phần mềm thông thường chỉ khai thác năng lực xử lý của chip trong từng khoảng ngắn vài mili giây, trong khi ứng dụng học máy có thể dùng toàn bộ hiệu năng trong vài giờ hoặc vài ngày. Có nghĩa, những công ty có sản phẩm AI thành công sẽ liên tục phải bổ sung chip xử lý để đáp ứng nhu cầu cao hoặc cải thiện mô hình huấn luyện.

Tuy nhiên những GPU này không hề rẻ. Ngoài giải pháp gắn card với một chip vào máy chủ, nhiều trung tâm dữ liệu đang vận hành hệ thống khép kín với 8 chip A100 hoạt động đồng thời

Hệ thống này, DGX A100, có giá đề xuất gần 200.000 USD. Vào thứ Tư, Nvidia cho biết họ sẽ bán trực tiếp quyền truy cập đám mây cho các hệ thống DGX, điều này có thể sẽ giảm chi phí đầu vào cho doanh nghiệp cũng như nhà nghiên cứu.

New Street Research ước tính, mô hình ChatGPT được dùng trong Bing có thể cần 8 chip A100 để đưa ra câu trả lời trong chưa đầy một giây. Microsoft sẽ cần tới hơn 20.000 hệ thống DGX A100 để bảo đảm khả năng phản hồi trơn tru của Bing với toàn bộ người dùng, tương ứng mức giá hơn 4 tỉ USD riêng cho cơ sở hạ tầng.

“Nếu bạn muốn mở rộng theo quy mô của Google, nơi phục vụ 8 hoặc 9 tỉ truy vấn mỗi ngày, bạn thực sự cần phải chi 80 tỉ USD cho hệ thống DGX”. Antoine Chkaiban, một nhà phân tích công nghệ tại New Street Research cho biết. “Những con số chúng tôi đưa ra là rất lớn. Nhưng chúng chỉ đơn giản là sự phản ánh thực tế rằng mỗi người dùng sử dụng một mô hình ngôn ngữ lớn như vậy đều cần một siêu máy tính khổng lồ phục vụ họ”.

Phiên bản mới nhất của Stable Diffusion, một trình tạo hình ảnh, đã được đào tạo trên 256 GPU A100, theo thông tin trực tuyến do Stability AI đăng, với tổng cộng 200.000 giờ điện toán.

Theo giá thị trường, chỉ riêng việc đào tạo mô hình đã có giá 600.000 USD, Giám đốc điều hành của Stability AI, Mostaque cho biết trên Twitter.

Huang, Giám đốc điều hành của Nvidia, cho biết trong một cuộc phỏng vấn với Katie Tarasov của CNBC rằng các sản phẩm của công ty thực sự không đắt so với số lượng tính toán chúng có thể giải quyết

"Chúng tôi tạo ra những trung tâm dữ liệu trị giá 100 triệu USD để làm nhiệm vụ của các hệ thống vận hành bằng CPU có giá tới một tỉ USD. Khi được đưa lên đám mây và chia sẻ với 100 công ty khác nhau, con số 100 triệu USD gần như không còn ý nghĩa gì", ông nói.

Huang nói rằng GPU của Nvidia cho phép các công ty khởi nghiệp đào tạo các mô hình với chi phí thấp hơn nhiều so với việc họ sử dụng bộ xử lý máy tính truyền thống.

“Bây giờ bạn có thể xây dựng thứ gì đó giống như mô hình ngôn ngữ lớn, chẳng hạn như ChatGPT, với giá khoảng 10, 20 triệu USD" Huang nói. “Mức giá này thực sự rất hợp lý”.

Tuy nhiên, Nvidia không phải là công ty duy nhất sản xuất GPU cho trí tuệ nhân tạo. AMD và Intel cũng có các bộ xử lý đồ họa cạnh tranh và các công ty điện toán đám mây lớn như Google và Amazon đang phát triển và triển khai các chip của riêng họ được thiết kế đặc biệt cho AI.

"Dù vậy, phần cứng AI đang tập trung trong tay Nvidia", báo cáo của Benaich nêu. Tính đến tháng 12/2022, hơn 21.000 tài liệu nguồn mở về AI xác nhận đang sử dụng chip Nvidia.

Phần lớn giới nghiên cứu vẫn dùng chip Nvidia V100 trên kiến trúc Volta ra đời năm 2017, nhưng A100 đang trở thành dòng chip được dùng nhiều thứ ba, chỉ sau phiên bản GPU cùng kiến trúc dành cho máy tính để bàn.

A100 cũng là một trong số ít chip bị áp đặt các biện pháp kiểm soát xuất khẩu vì lý do quốc phòng. Mùa thu năm ngoái, Nvidia cho biết trong một hồ sơ SEC rằng chính phủ Hoa Kỳ đã áp đặt yêu cầu giấy phép cấm xuất khẩu A100 và H100 sang Trung Quốc, Hồng Kông và Nga vì lo ngại rằng chúng có thể được dùng cho mục đích quân sự.

Đối thủ cạnh tranh lớn nhất của A100 có thể chính là sản phẩm kế nhiệm của nó. H100 được công bố năm 2022 và đang bắt đầu được sản xuất với số lượng lớn, trong đó Nvidia ghi nhận lợi nhuận của H100 trong quý IV/2022 đã vượt qua A100, dù mẫu chip mới có giá đắt đỏ hơn. Nvidia cho biết H100 là GPU đầu tiên được tối ưu hóa cho máy biến áp, một kỹ thuật ngày càng quan trọng mà nhiều ứng dụng AI hàng đầu sử dụng.

Theo CNBC