Hơn một tuần trước, Mark Zuckerberg đã xuất hiện trong 2 buổi điều trần liên tiếp (11-12/4) kéo dài gần 10 tiếng đồng hồ trước Quốc hội Mỹ. CEO của Facebook đã xin lỗi vì không thể làm nhiều hơn để bảo vệ quyền riêng tư của người dùng và hạn chế sự lây lan của thông tin sai lệch trên nền tảng mạng xã hội. Ông trấn an các thượng nghị sĩ Mỹ rằng trí tuệ nhân tạo sẽ sớm khắc phục được nhiều vấn đề của Facebook. Nhưng thực tế, hiệu quả của việc ứng dụng công nghệ AI đến đâu lại phụ thuộc vào chiến lược phát triển của công ty trong những năm tới.
Ở buổi điều trần ngày 11/2, ông Zuckerberg đã công bố những thành công của thuật toán AI của Facebook. Nó có thể tìm và ngăn chặn 99% các bài đăng tuyên truyền và tuyển dụng khủng bố của 2 tổ chức hồi giáo cực đoan nổi tiếng tại Iraq (Al-qaeda) và Syria (IS), đồng thời xóa các tài khoản Facebook liên quan. Tuy nhiên, Counter Extremism Project (CEP), tổ chức phi lợi nhuận thường xuyên theo dõi và báo cáo về hoạt động của các nhóm khủng bố đã đưa ra bằng chứng ngược lại. CEP cho biết vẫn tìm thấy “các bài phát biểu và nội dung cực đoan xuất hiện thường xuyên trên Facebook”.
Nhà sáng lập Facebook còn đề cập tới việc ông đã bắt đầu xây dựng mạng xã hội lớn nhất thế giới trong phòng ký túc xá của mình tại Đại học Havard năm 2004. Nhưng ông cũng nhiều lần thừa nhận rằng phương pháp giám sát nội dung của công ty sử dụng trong nhiều năm, dựa vào nhân viên kiểm duyệt đã không thể phản ứng nhanh chóng với các đoạn quảng cáo có nội dung độc hại, và không kịp thời xử lý các thông tin sai lệch (như sự cố của Cambridge Analytica hay cáo buộc Nga sử dụng 450 tài khoản can thiệp vào cuộc bầu cử Tổng thống Mỹ năm 2016). Ông khẳng định AI đã giúp Facebook giải nhiều vấn đề, bao gồm tìm và xóa “hàng chục ngàn” tài khoản đang tìm cách gây ảnh hưởng tới cử tri trước những cuộc bầu cử chính trị tại Pháp, Đức và nhiều quốc gia khác trong năm 2017.
Ông Zuckerberg nói rằng để AI có thể phân loại những nội dung độc hại thông qua lời nói cần thêm 5-10 năm nữa. Trở ngại lớn nhất là xác định chính xác từ ngữ tiêu cực và dạy máy chủ AI có thể nhận diện hiểm họa qua nhiều ngôn ngữ khác nhau. Giải thích cho sự cố xảy ra tại Myanmar, khi bộ phận kiểm duyệt của công ty đã chậm trễ loại bỏ nội dung kích động của một nhóm chống người Hồi giáo Rohingya, ông cho biết ngoài phát triển AI tự nhận diện ngôn ngữ tiêu cực, công ty đã thuê rất nhiều nhân viên bản địa để giám sát.
Hiện Facebook có khoảng 15.00 nhân viên trong lĩnh vực bảo mật và kiểm duyệt. Công ty cũng dự định thuê thêm 5.000 người nữa tới cuối năm 2018. Theo ông Zuckerberg, “đây là một cuộc chạy đua vũ trang”, năm 2018 là một năm quan trọng cho các cuộc bầu của tại Mỹ và nhiều nơi khác trên thế giới và chắc chắn sẽ có các tổ chức tiếp tục sử dụng nền tảng mạng xã hội để truyền bá những thông tin sai lệch.
Stewart Russell, nhà khoa học máy tính hiện đang giảng dạy tại Đại học California phân tích: “Tôi tin rằng những gì ông Zuckerberg nói là hoàn toàn có thể thực hiện. Nhưng khi phương pháp sử dụng AI và kết quả của dự án chưa được công bố thì rất khó nhận định rằng Facebook có thể phát huy hiệu quả của công nghệ AI hay không. Một sự kết hợp giữa AI, báo cáo sai phạm từ cộng đồng người dùng và hệ thống ước tính độ tin cậy của người báo cáo sai phạm mới có thể làm sạch nền tảng của Facebook”.
Để AI xác định một bài đăng có bao gồm hoặc liên kết tới nguồn tin giả mạo hay không đòi hỏi Facebook phải xây dựng hệ thống hiểu ngữ nghĩa và những từ ngữ khác nhau có ý nghĩa thế nào trong ngữ cảnh. Nhà nghiên cứu khoa học, giảng viên tại bộ môn Robot của Đại học Carnegie Mellon, Dean Promerleau nói: “Bạn cần phải thông cảm và hiểu quan điểm của Zuckberberg, vấn đề kiểm duyệt trên Facebook vượt quá khả năng hiện tại của AI. Người đăng có thể đưa ra những thay đổi tinh vi trong văn bản, hình ảnh hoặc video. Việc họ khiếu nại về những nội dung bị báo cáo sai phạm khiến công việc của AI càng thêm phức tạp. Việc sửa đổi văn bản, cắt ghép hình ảnh và chỉnh sửa video khi phát tán khiến phần mềm khó thực hiện việc khớp mẫu được lập trình sẵn”. Ông cũng gợi ý một phương pháp tình thế mà Facebook có thể làm là cung cấp những công cụ AI để hỗ trợ nhân viên kiểm duyệt tìm và phân tích thông tin giả mạo và những nội dung không mong muốn.
Facebook thực sự đang nỗ lực để phát triển AI. Năm 2013, công ty đã mở phòng Nghiên cứu AI (FAIR) dưới sự lãnh đạo của ông Al Yumin Lecun. Đầu năm 2018, ông Lecun được đưa lên làm trưởng nhóm khoa học AI của Facebook. FAIR tập trung vào lĩnh vực phát triển khả năng dự đoán nhu cầu để tương tác tốt hơn với người dùng, bao gồm quản lý nguồn thông tin, quảng cáo và nâng cấp chatbot (hệ thống AI hỗ trợ tự động của Facebook). Các thuật toán tương tự cũng được thiết kế để cải thiện khả năng nhận diện ngôn ngữ của chatbot, đặc biệt đối với các nội dung bị kiếu nại. Gần đây nhất, trang Bloomberg đã tiết lộ Facebook đang tuyển dụng được phân loại trong nhóm cơ sở hạ tầng, nên có lẽ nhóm làm chip này sẽ hướng tới các máy chủ AI.
Giáo sư Đại học Michigan, Florian Schaub nhận đinh: “Có vẻ như Facebook đang trải qua một giai đoạn tính toán và bắt đầu nhận ra giá trị nền tảng của họ đối với xã hội. Trong một thời gian dài, họ tưởng rằng đang thực hiện cung cấp một dịch vụ tuyệt vời trong xã hội là kết nối mọi người nhưng bây giờ họ nhận ra nó đi kèm với trách nhệm lớn. Điều đó cần một sự thay đổi bởi không phải lần đầu tiên chúng ta phải nghe Zuckerberg xin lỗi vì sự chủ quan của Facebook”.
Thử thách lớn nhất đối với Facebook có lẽ là quyết tâm thay đổi chức không chỉ phụ thuộc vào sự phát triển AI và các công nghệ khác ra làm để bảo vệ quyền riêng tư của người dùng và ngăn sự lây lan của những tin tức giả mạo, nội dung độc hại. Ông Promerleau nói: “Về cơ bản. mô hình kinh doanh của Facebook được xây dựng trên những nội dung nhạy cảm. Vì vậy loại bỏ tất cả những thứ kích động sẽ đem lại lợi ích tốt nhất cho Facebook”.