Sự “lớn mạnh” của trí tuệ nhân tạo và khó khăn của Intel

Sự thành công của Nvidia và những bộ vi xử lý mới của hãng báo hiệu sự thay đổi nhanh chóng kiến trúc ngành công nghệ thông tin, có thể mang lại những khó khăn cho vị thế của Intel.
Biếm họa của Dave Simonds
Biếm họa của Dave Simonds

 "Đã vài lần chúng tôi gần như phá sản". Thông thường những nhà sáng lập sẽ không nói về những trải nghiệm khi doanh nghiệp của mình bên bờ phá sản. Tuy nhiên, Jen-Hsun Huang, ông chủ của Nvidia, không có lý do gì để xấu hổ. Doanh nghiệp phát triển bộ vi xử lý và các phần mềm liên quan của ông đang trên đà chiến thắng. Trong quý vừa qua, doanh thu của hãng tăng 55% đạt mức 2,2 tỷ USD, và trong 12 tháng, giá cổ phiếu của hãng cũng tăng gấp 4 lần.

Phần lớn thành công của Nvidia là do nhu cầu về con chip GPU của hãng, các bộ xử lý đồ hoạ có khả năng biến máy tính cá nhân thành các thiết bị game tốc độ cao, tăng nhanh. Thế nhưng, các GPU còn có những điểm đến mới: các trung tâm dữ liệu, nơi những chương trình trí tuệ nhân tạo (AI) ngốn một lượng lớn năng lực điện toán mà chúng tạo ra.

Việc doanh thu từ chip GPU (xem biểu đồ) tăng vọt là dấu hiệu rõ ràng nhất cho thấy sự thay đổi của công nghệ thông tin. Kiến trúc ngành điện toán đang đổ vỡ do sự chậm lại của định luật Moore, định luật mà cho đến gần đây vẫn đảm bảo sức mạnh xử lý của điện toán tăng lên gấp đôi sau mỗi hai năm, và còn do sự tăng trưởng nhanh chóng của điện toán đám mây và trí tuệ nhân tạo.

Mọi thứ khá đơn giản khi định luật Moore, được đặt tên theo Gordon Moore, người sáng lập Intel, còn giá trị. Cho dù trong máy tính cá nhân hay máy chủ (máy tính chạy trong các trung tâm dữ liệu), một bộ vi xử lý hay CPU, có thể giải quyết hầu hết "khối lượng công việc". Bởi Intel tạo ra các CPU mạnh nhất, hãng không chỉ chiếm lĩnh thị trường bộ vi xử lý máy tính (có thị phần khoảng 80%) mà còn đối với các máy chủ, nơi hãng gần như hoàn toàn chiếm độc quyền. Năm 2016, Intel có doanh thu gần 60 tỷ đô la.

Tuy nhiên, thế giới đơn cực đó đang bắt đầu sụp đổ. Các bộ vi xử lý không còn được cải tiến đủ nhanh để có thể theo kịp sự phát triển, ví dụ như của công nghệ "machine learning" và các ứng dụng trí tuệ nhân tạo khác, những lĩnh vực đòi hỏi số lượng lớn dữ liệu và do đó tiêu thụ nhiều năng lượng siêu tính toán hơn so với khả năng mà toàn bộ trung tâm dữ liệu có thể cung cấp vài năm trước đây. Khách hàng của Intel, như Google và Microsoft cùng với các nhà cung cấp khác của các trung tâm dữ liệu lớn, lựa chọn những bộ xử lý chuyên dụng hơn từ các công ty khác và thậm chí là tự thiết kế để sử dụng.

GPU của Nvidia là một ví dụ. Chúng được tạo ra để thực hiện các tính toán đồ sộ, phức tạp, theo yêu cầu của các trò chơi điện tử tương tác. GPU có hàng trăm "lõi" chuyên dụng ("bộ não" của bộ vi xử lý), tất cả đều làm việc song song, trong khi các CPU chỉ có một vài công cụ đủ mạnh để giải quyết các nhiệm vụ tính toán tuần tự. Bộ xử lý mới nhất của Nvidia có tới 3.584 lõi; trong khi đó các CPU máy chủ của Intel có tối đa là 28 lõi.

Sự may mắn bất ngờ của Nvidia đến từ một trong những lần cận phá sản trong cuộc hủng hoảng tài chính toàn cầu năm 2008-2009. Các quỹ dự phòng và các viện nghiên cứu sử dụng các con chip cho các mục đích mới như tính toán những mô hình đầu tư và mô hình khí hậu phức tạp. Hãng đã phát triển một ngôn ngữ mã hóa gọi là CUDA giúp khách hàng lập trình bộ vi xử lý cho các tác vụ khác nhau. Khi điện toán đám mây, big data và trí tuệ nhân tạo phát triển mạnh vài năm trước thì chip của Nvidia là sản phẩm cần dùng.

Những hãng trực tuyến khổng lồ sử dụng GPU của Nvidia để cung cấp cho các dịch vụ trí tuệ nhân tạo của họ khả năng tiếp nhận nhiều dữ liệu từ các nguồn khác nhau, từ hình ảnh y học đến ngôn ngữ con người. Doanh thu của hãng từ việc bán chip cho các nhà khai thác trung tâm dữ liệu tăng gấp 3 lần trong năm tài chính vừa qua, lên đến 296 triệu đô la.

Và GPU chỉ là một loại "accelerator" (trình tăng tốc), thuật ngữ được dùng cho các bộ xử lý chuyên biệt. Ngày càng có nhiều loại trình tăng tốc do các công ty điện toán đám mây kết hợp, liên kết các con chip với nhau để hoạt động hiệu quả hơn và để giành chiến thắng trong cạnh tranh. "Tìm được đúng công cụ cho đúng công việc", là cách Urs Hölzle, phụ trách cơ sở hạ tầng kỹ thuật tại Google mô tả về sự cân bằng của các yếu tố như sự linh hoạt, tốc độ và chi phí.

Có thể kể đến ASIC, các mạch tích hợp dành cho một ứng dụng cụ thể. Đúng như nghĩa của thuật ngữ này, chúng được "nối cứng" cho một mục đích, có tốc độ nhanh nhất đồng thời tiết kiệm năng lượng nhất. Hàng chục start up đang phát triển các chip như vậy với các thuật toán trí tuệ nhân tạo được tích hợp sẵn. Google đã phát triển một ASIC được gọi là "Bộ xử lý Tensor" để nhận diện giọng nói.

Một đỉnh cao khác là Mảng cổng có thể lập trình theo trường (FPGA - Field Programmable Gate Arrays). Các FPGA có thể được lập trình, có nghĩa là tính linh hoạt cao hơn. Đây là lý do tại sao ngay cả khi chúng rất khó xử lý Microsoft vẫn đưa vào nhiều máy chủ của hãng, ví dụ như các máy chủ của dịch vụ tìm kiếm trực tuyến Bing. Mark Russinovich, Giám đốc công nghệ tại Azure, một công ty điện toán đám mây nói: "Chúng tôi đang sở hữu nhiều FPGA hơn bất kỳ tổ chức nào khác trên thế giới".

Thay vì sản xuất ASICS hay FPGA, những năm gần đây Intel lại tập trung làm cho bộ xử lý CPU của mình mạnh hơn bao giờ hết. Không ai nghĩ các bộ vi xử lý thông thường sẽ "mất việc" ngay: mỗi máy chủ đều cần chúng và vô số ứng dụng đã được ghi để chạy trên chúng. Doanh thu từ chip của Intel vẫn đang tăng lên. Dù vậy, sự gia tăng nhanh chóng của các accelerator dường như là tin xấu đối với công ty, Alan Priestley của Gartner cho biết. Càng có nhiều tính toán được thực hiện trên các accelerator, các CPU sẽ càng "ít việc" hơn.

Có một cách để bắt kịp là thực hiện các thương vụ mua lại. Năm 2015 Intel đã mua lại Altera, nhà sản xuất FPGA, với giá 16,7 tỷ đô la. Vào tháng 8, công ty này đã trả hơn 400 triệu đô la cho Nervana, một công ty mới ba tuổi phát triển các hệ thống trí tuệ nhân tạo chuyên biệt, từ phần mềm đến chip. Intel cho biết hãng coi bộ vi xử lý chuyên dụng là một cơ hội chứ không phải là một mối đe dọa. Diane Bryant, người điều hành kinh doanh của trung tâm dữ liệu Intel giải thích, các  khối lượng công việc điện toán mới thường bắt đầu được xử lý trên các bộ vi xử lý chuyên biệt, nhưng cuối cùng cũng sẽ được "kéo vào CPU" mà thôi. Chẳng hạn, việc mã hoá đã từng xảy ra trên các chất bán dẫn riêng, nhưng bây giờ là một chỉ dẫn đơn giản trên các CPU của Intel có mặt trên hầu hết các máy tính và máy chủ trên toàn cầu. Giữ lại loại hình công việc mới, chẳng hạn AI, trên các trình tăng tốc đồng nghĩa với giữ lại sự phức tạp và phát sinh thêm chi phí.

Nếu việc tích hợp trên xảy ra, Intel đã sẵn sàng để tận dụng lợi thế. Vào mùa hè này hãng sẽ bắt đầu bán một bộ vi xử lý mới mang tên Knights Mill để cạnh tranh với Nvidia. Intel cũng đang phát triển một con chip khác, Knights Crest, đi kèm với công nghệ Nervana. Thêm vào đó, Intel cũng dự kiến sẽ kết hợp CPU của mình với FPGA của Altera.

Có thể thấy, các đối thủ cạnh tranh có những cách nhìn tương lai khác nhau. Nvidia nghĩ họ đã thiết lập được nền tảng điện toán riêng của mình. Nhiều công ty đã viết các ứng dụng trí tuệ nhân tạo chạy trên chip của hãng, và hãng đã tạo cơ sở hạ tầng phần mềm cho các loại chương trình khác nhau, ví dụ như việc cho phép hiển thị trực quan và thực tế ảo. Hãng máy tính khổng lồ IBM cũng đang khiến Intel gặp nhiều khó khăn hơn. "Bắt chước" cách làm của các phần mềm nguồn mở, năm 2013 IBM "mở cửa" kiến trúc xử lý Power của mình. Các hãng chế tạo chip chuyên dụng có thể dễ dàng kết hợp các sản phẩm của họ với CPUPower, từ đó góp phần vào sự phát triển nền tảng này.

Matthew Eastwood của IDCcho biết, sẽ có rất nhiều thứ phụ thuộc vào sự phát triển của trí tuệ nhân tạo. Nếu AI hóa ra lại không phải là một cuộc cách mạng như nhiều người trông đợi và thay đổi trong vài năm thì Intel sẽ có cơ hội tốt. Nhưng nếu trí tuệ nhân tạo duy trì tầm ảnh hưởng trong một thập niên hay lâu hơn, các loại bộ xử lý khác sẽ có nhiều cơ hội tự khẳng định mình. Nhìn vào tính khả dụng của các kỹ thuật AI, có thể thấy khả năng thứ hai dễ xảy ra hơn. Có một điều chắc chắn, đó là kỷ nguyên của những CPU cồng kềnh, nặng nề, "gánh trên vai" tất cả các khối lượng công việc dù phức tạp đến mức nào, đã qua. Số lượng các CPU này sụt giảm mạnh, giống như cú ngã không thể tự đứng dậy của cậu "quả trứng" Humpty Dumpty. Và Intel sẽ không thể xoay ngược được tình thế. 

Theo Vnreview  (Nguồn Economist.com)

http://vnreview.vn/tin-tuc-khoa-hoc-cong-nghe/-/view_content/content/2190115/su-lon-manh-cua-tri-tue-nhan-tao-va-kho-khan-cua-intel