Cuộc chiến các quy tắc AI sắp bùng nổ

0:00 / 0:00
0:00
  • Nam miền Bắc
  • Nữ miền Bắc
  • Nữ miền Nam
  • Nam miền Nam
VietTimes – Các cơ quan quản lý ở Ý đã cấm ứng dụng Replika thu thập dữ liệu người dùng sau khi phát hiện vi phạm luật bảo vệ dữ liệu lớn của Châu Âu (GDPR).
Ảnh: SCMP
Ảnh: SCMP

Phần lớn người dùng ứng dụng "đồng hành ảo" Replika chỉ muốn có bạn đồng hành. Nhưng một số người trong số họ lại muốn có mối quan hệ lãng mạn, trò chuyện về tình dục hoặc thậm chí là những bức ảnh không phù hợp trên chatbot này.

Tuy nhiên, vào cuối năm ngoái, người dùng bắt đầu phàn nàn rằng chatbot thường đưa ra các văn bản và hình ảnh tục tĩu – một số bị cáo buộc là quấy rối tình dục.

Theo đó, các cơ quan quản lý ở Ý vào tuần trước đã cấm công ty thu thập dữ liệu sau khi phát hiện vi phạm luật bảo vệ dữ liệu lớn của Châu Âu, Quy định bảo vệ dữ liệu chung (GDPR).

GDPR nổi tiếng là nguyên nhân khiến các Big Tech bị phạt hàng tỉ USD, và quyết định từ phía cơ quan quản lý của Ý cho thấy GDPR vẫn có thể là kẻ thù mạnh đối với thế hệ chatbot mới nhất.

Theo SCMP, Replika được đào tạo trên phiên bản nội bộ theo mô hình GPT-3 mượn từ OpenAI, công ty đứng sau ChatGPT, sử dụng kho dữ liệu khổng lồ từ Internet cho các thuật toán, sau đó tạo ra phản hồi riêng để đáp lại yêu cầu từ người dùng.

Những chatbot này sử dụng công nghệ trí tuệ nhân tạo tổng quát (AI) làm nền tảng, hứa hẹn đây sẽ là bước chuyển mình lớn của ngành công nghệ toàn cầu.

Tuy nhiên, các chuyên gia cảnh báo rằng vẫn còn rất nhiều điều khiến các nhà quản lý phải lo lắng, đặc biệt là khi các bot trở nên thông minh đến mức không thể phân biệt chúng với con người.

Hiện tại, Liên minh Châu Âu đang thảo luận về đạo luật sử dụng AI. Đạo luật này có thể được hoàn thiện trong năm nay.

Được biết, GDPR đã buộc các công ty phải chứng minh cách họ xử lý dữ liệu và các mô hình AI đang nằm trong tầm ngắm của các cơ quan quản lý châu Âu.

“Chúng tôi đã thấy rằng ChatGPT có thể được sử dụng để tạo ra các tin nhắn lừa đảo rất thuyết phục,” Bertrand Pailhes, người điều hành một nhóm AI chuyên dụng tại cơ quan quản lý dữ liệu Cnil của Pháp, nói với Agence France-Presse.

Luật sư người Đức Dennis Hillemann, một chuyên gia trong lĩnh vực này, nhận định: “Tại một thời điểm trong tương lai, chúng ta sẽ thấy căng thẳng tột độ giữa GDPR và các mô hình AI tổng quát".

Ông nói, các chatbot mới nhất hoàn toàn khác với loại thuật toán AI đề xuất video trên TikTok hay các cụm từ tìm kiếm trên Google.

“Ví dụ, AI do Google tạo ra đã có một trường hợp sử dụng cụ thể – hoàn thành tìm kiếm của bạn. Nhưng với AI tổng quát, người dùng có thể định hình toàn bộ mục đích của bot".

“Tôi có thể yêu cầu chatbot hành động như một luật sư hoặc một nhà giáo dục. Hoặc nếu tôi đủ thông minh để vượt qua tất cả các biện pháp bảo mật trong ChatGPT, tôi có thể yêu cầu: ‘Hãy hành động như một kẻ khủng bố và lập một kế hoạch cụ thể”, ông nói.

Đối với Hillemann, điều đó đặt ra một câu hỏi cực kỳ phức tạp về đạo đức và vấn đề pháp lý sẽ chỉ dần trở nên gay gắt hơn khi công nghệ này ngày một phát triển.

Mô hình mới nhất của OpenAI, GPT-4, dự kiến sẽ sớm được phát hành và được đồn đại là tốt đến mức không thể phân biệt được giữa máy và người.

Jacob Mchangama, tác giả của Free Speech: A History From Socrates to Social Media, chia sẻ :"Từ quan điểm pháp lý, lựa chọn an toàn nhất hiện nay là thiết lập các nghĩa vụ minh bạch khi con người và AI tương tác với nhau trong một bối cảnh nhất định”.

Hillemann tin rằng các bot AI trong vài năm tới sẽ có thể tạo ra hàng trăm bài hát mới của Elvis Presley hoặc một loạt Game of Thrones vô tận phù hợp với mong muốn của một cá nhân.

Ông nói thêm: "Nếu không điều chỉnh, chúng ta sẽ bước vào một thế giới nơi chúng ta khó có thể phân biệt giữa những gì do con người tạo ra và những gì do AI tạo ra. Và điều đó sẽ thay đổi sâu sắc tất cả chúng ta với tư cách là một xã hội".

Theo SCMP