Nguy cơ tiềm tàng từ các phòng nghiên cứu AI tư nhân

Sự thống trị của Google trong lĩnh vực trí tuệ nhân tạo đang khiến các nhà khoa học lo ngại về độ minh bạch của các công trình nghiên cứu.

Các phòng nghiên cứu do Google Research, DeepMind hay OpenAI thành lập đang đóng vai trò trung tâm trong kỷ nguyên trí tuệ nhân tạo. Những thành tựu đáng kinh ngạc của các phòng thí nghiệm AI này liên tục xuất hiện trên các tạp chí công nghệ và phương tiện truyền thông chính thống. Số lượng nghiên cứu chất lượng cao công bố bởi các tập đoàn tư nhân vượt qua hầu hết nghiên cứu từ đại học. Các công ty lớn ngày càng tài trợ nhiều cho các nghiên cứu sinh tiến sĩ và ký các hợp đồng hợp tác với trường đại học để chia sẻ bản quyền các nghiên cứu.

Hiện không có công ty nào chiếm ưu thế về nghiên cứu AI hơn Alphabet (công ty mẹ của Google) và phòng thí nghiệm DeepMind của hãng. Kết hợp lại, số lượng nghiên cứu của các trung tâm thuộc Alphabet lớn gấp đôi con số được công bố tại các hội nghị AI như NeurIPS. Khả năng nghiên cứu trên phạm vi rộng đã giúp Alphabet đánh bại cờ thủ giỏi nhất thế giới, dịch hơn 100 ngôn ngữ và khám phá những bí ẩn sinh học của con người.

Nguy cơ tiềm tàng từ các phòng nghiên cứu AI tư nhân ảnh 1

Nhà sáng lập DeepMind, Demis Hassabis. Ảnh:Reuters

Tuy nhiên trong hơn một tuần vừa qua, những tranh luận xung quanh một nghiên cứu mới của DeepMind đã đặt ra câu hỏi về hậu quả của việc các Big Tech nắm giữ quá nhiều thành quả nghiên cứu AI. Sự việc này cũng cho thấy khả năng dòng tiền của doanh nghiệp chảy vào AI có thể dẫn tới tính minh bạch và độ tin tưởng của nghiên cứu bị giảm đi.

Tất cả bắt đầu vào ngày 30/11, với buổi thông cáo báo chí công bố công cụ AlphaFold của DeepMind giải mã thành công cấu trúc protein. AlphaFold được cho có khả năng dự đoán cấu trúc protein sau quá trình cuộn xoắn phức tạp. Cấu trúc cuộn xoắn của protein vốn là một thách thức lớn trong lĩnh vực sinh học suốt nhiều thập kỷ qua. Nhà sinh hóa đoạt giải Nobel Christian Anfinsen từng ước tính số lượng cấu trúc protein là một googol (số 1 có 300 chữ số "0" theo sau).

DeepMind đã ca ngợi AlphaFold là "giải pháp cho thách thức 50 năm tuổi trong sinh học" bằng cách đưa AI tham gia vào "thế vận hội protein" có tên CASP (Critical Assessment of Protein Structure Prediction - Đánh giá Quan trọng về Dự đoán cấu trúc Protein). Tuy nhiên sau công bố này, DeepMind đã hứng chịu chỉ trích dữ dội từ giới học giả vì không cho kết quả nghiên cứu trải qua quá trình bình duyệt ngang hàng (hay peer review) tại các tạp chí khoa học.

Nguy cơ tiềm tàng từ các phòng nghiên cứu AI tư nhân ảnh 2

Dự đoán được hình dạng của protein sau cuộn gập có thể giúp xác định được chức năng của chúng. Ảnh: Deepmind.

Michael Thompson, một nhà nghiên cứu sinh học cấu trúc tại Đại học California đăng trên Twitter: "Thành thật mà nói, sự cường điệu hóa không phục vụ ai cả. Cho đến khi DeepMind sẵn sàng chia sẻ mã cho các nhà nghiên cứu khác đánh giá, không ai trong lĩnh vực này quan tâm đến thành tựu của họ và chỉ có họ tự tán thưởng mình mà thôi".

DeepMind tuyên bố sẽ công bố một bài báo chính thức sắp tới, nhưng không cho biết thời gian cụ thể. Sarah Myers West, một nghiên cứu sinh tiến sĩ tại Viện AI Now của NYU, cho biết: "Không ít nghiên cứu hiện nay được công bố lên các hệ thống lưu trữ công cộng ngay khi hoàn thành. Việc bỏ qua ‘những người gác cổng truyền thống’ này có thể khiến các vấn đề hoặc điểm không chính xác trong nghiên cứu không được tìm ra và sửa chữa".

Vài ngày sau, hôm 3/12, nhà khoa học AI nổi tiếng Timnit Gebru - đồng tác giả nghiên cứu chứng minh xuất hiện thành kiến trong các thuật toán nhận dạng khuôn mặt thương mại - thông báo Google đã buộc bà phải rời khỏi vị trí giám đốc bộ phận Đạo đức Trí tuệ nhân tạo. Google nêu lý do bà Gebru đã gửi một số email phàn nàn về sự thiếu tiến bộ của công ty trong lĩnh vực công bằng và hòa nhập của nhân viên. Ngoài ra bà Gebru còn được cho đã công bố một số tài liệu của Google mà không có sự cho phép của công ty.

Các tài liệu của Gebru đề cập tới những lo ngại xung quanh việc phát triển của các mô hình ngôn ngữ lớn nhằm tạo điều kiện cho hoạt động kinh doanh tìm kiếm của Google. Theo đánh giá của MIT Technology Review, Gebru đã chỉ ra khả năng sai lệch lớn trong các mô hình máy học của Google và nguy cơ chúng có thể được sử dụng cho các mục đích bất chính.

Việc sa thải Gebru đi ngược lại với danh tiếng mà Google đã tạo dựng như một người bảo trợ cho nghiên cứu đạo đức AI. Một phần của danh tiếng đó đến từ việc tuyển dụng các nhà nghiên cứu phê bình như Gebru, nhiều trường hợp cho thấy các công ty tư nhân thường có thể trả cho các nhà nghiên cứu mức lương đủ cao để họ chấp nhận các ràng buộc liên quan tới các xuất bản. Điều này càng khiến công chúng nghi ngờ về trách nhiệm đạo đức đối với những nghiên cứu AI trong một lĩnh vực ngập tràn tiền của tập đoàn tư nhân như hiện nay.

Vấn đề là, chi phí liên quan đến việc xây dựng các mô hình AI quá tốn kém dẫn tới phần lớn công việc trong lĩnh vực này tập trung vào tay của một số ít công ty và trường đại học có đủ khả năng chi trả.

West nói: "Chúng ta đang quá phụ thuộc vào những dịch vụ của các công ty lớn mà quên rằng chúng hoàn toàn có thể gây hại. Các công ty đó đang sử dụng quyền lực và ảnh hưởng trong lĩnh vực này theo cách có thể không có lợi cho người dùng".

Theo VnExpress

Lưu tin
Có thể bạn quan tâm
Việt Nam nên tắt 2G hay 3G?

Việt Nam nên tắt 2G hay 3G?

VietTimes – Bộ Thông tin và Truyền thông đã có kế hoạch ngắt kết nối 2G khi công nghệ 5G được triển khai thương mại chính thức. Tuy nhiên, ở một số quốc gia, người ta lại định ngắt 3G chứ không phải 2G.