Gần đây, hàng loạt sự chú ý từ những người yêu thích công nghệ trên khắp thế giới đều đổ dồn về ChatGPT của OpenAI. Chương trình gây ấn tượng với nhiều người bởi sự thông minh, mới mẻ và hấp dẫn của con AI này.
Tuy nhiên, các học giả về AI lại không nghĩ như vậy
Yann LeCun, nhà khoa học AI của Meta, cho biết trong một cuộc họp báo cùng giám đốc điều hành trên Zoom vào tuần trước: “Xét về các kỹ thuật cơ bản, ChatGPT không có gì đổi mới".
"Tôi không chỉ trích công việc của OpenAI. Tôi chỉ đang cố gắng sửa chữa nhận thức của công chúng, những người đang coi ChatGPT là đột phá công nghệ mới, sáng tạo, độc đáo hay vượt xa người khác. Đơn giản không phải như vậy", ông nói.
LeCun chia sẻ: “Không có gì mang tính cách mạng, mặc dù đó là cách mà công chúng nhìn nhận nó. Chỉ là, bạn biết đấy, nó được kết hợp với nhau rất tốt, nó được thực hiện rất tốt".
Ông cho biết các hệ thống AI dựa trên dữ liệu như vậy đã được xây dựng trước đây bởi nhiều công ty và phòng thí nghiệm nghiên cứu.
"OpenAI hoàn toàn không phải là một bước tiến so với các phòng thí nghiệm khác. Không chỉ Google và Meta, mà còn có nửa tá công ty khởi nghiệp về cơ bản sở hữu công nghệ tương tự", ông nói thêm.
Ông LeCun nhận xét: "Bạn phải nhận ra rằng ChatGPT sử dụng kiến trúc Transformers - mô hình học sâu đã được đào tạo trước theo cách tự giám sát. Tự học có giám sát là điều mà tôi đã ủng hộ từ lâu, ngay cả trước khi OpenAI tồn tại".
"Transformers là một phát minh của Google," LeCun lưu ý, đề cập đến mạng thần kinh ngôn ngữ được Google công bố vào năm 2017, đã trở thành cơ sở cho một loạt các chương trình ngôn ngữ, bao gồm cả GPT-3.
LeCun cho biết công việc về các chương trình ngôn ngữ như vậy đã có từ nhiều thập kỷ trước.
Về kỹ thuật, OpenAI sử dụng RLTH, tức kỹ thuật học tăng cường thông qua các phản hồi của con người, từ đó cải thiện đầu ra. Kỹ thuật này cũng giống cách Google sử dụng để xếp hạng các trang web và Google DeepMind mới là đơn vị tiên phong về giải pháp trên.
"Có cả một lịch sử hình lâu dài và nó không tự nhiên xuất hiện", ông cho hay. Với việc dùng mô hình LLM, các giải pháp như ChatGPT chỉ tốt trong việc sử dụng như một trợ lý viết, nhưng chưa đủ tốt để trở thành một công cụ tìm kiếm, giải đáp thắc mắc. Kỹ thuật RLTH giúp giảm thiểu các lỗi thường gặp của AI, chứ không thực sự khắc phục những vấn đề mà chúng có thể tạo ra.
Hồi đầu tháng, LeCun cũng giải thích trên Twitter rằng Google, Meta và những gã khổng lồ công nghệ khác vẫn lưỡng lự trong việc phát hành các AI như vậy cho công chúng sử dụng rộng rãi vì các hệ thống này "thường tạo ra nội dung độc hại, như thông tin sai lệch, lời nói căm thù...".
Ông LeCun đã chiến thắng Giải thưởng Turing 2019 cho những đóng góp cho khoa học máy tính, tương đương với giải thưởng Nobel về điện toán, cùng với Bengio của MILA và giáo sư Đại học Toronto và đồng nghiệp của Google, Geoffrey Hinton. Cả ba đã giúp tiên phong trong kỷ nguyên AI học sâu ngày nay.
Theo Tech Crunch