Châu Âu đạt bước tiến trong việc hiện thực hóa Đạo luật Trí tuệ Nhân tạo

0:00 / 0:00
0:00
  • Nam miền Bắc
  • Nữ miền Bắc
  • Nữ miền Nam
  • Nam miền Nam

VietTimes – Một ủy ban chủ chốt của Nghị viện Châu Âu đã phê duyệt những quy định về Trí tuệ Nhân tạo, loại văn bản pháp quy đầu tiên về AI, khiến dự thảo này gần hơn một bước để trở thành Đạo luật AI.

Nhà lập pháp Rumani Dragos Tudorache, đồng lãnh đạo dự thảo luật AI, thông qua một Ủy ban của Nghị viện Châu Âu ngày 11/5. Ảnh: Liên minh châu Âu
Nhà lập pháp Rumani Dragos Tudorache, đồng lãnh đạo dự thảo luật AI, thông qua một Ủy ban của Nghị viện Châu Âu ngày 11/5. Ảnh: Liên minh châu Âu

Việc thông qua các quy định này đánh dấu một phát triển mang tính bước ngoặt trong cuộc chạy đua giữa các cơ quan chức năng kiểm soát AI và công nghệ, đang phát triển với tốc độ chóng mặt.

Dự thảo luật này, được gọi là Đạo luật AI của châu Âu, sẽ là bộ luật đầu tiên dành cho các hệ thống AI phương Tây. Trước đây, Trung Quốc đã phát triển dự thảo những quy định pháp lý được thiết kế để quản lý các công ty công nghệ đang phát triển những sản phẩm AI tạo sinh như ChatGPT.

Bộ Luật đầu tiên về AI sử dụng phương thức tiếp cận dựa trên những rủi ro để điều chỉnh AI, trong đó những nghĩa vụ trách nhiệm đối với một hệ thống AI sẽ tương ứng với mức độ rủi ro mà ứng dụng có thể gây ra.

Các quy định pháp lý cũng xác định những yêu cầu đối với các nhà cung cấp các “mô hình nền tảng” như GPT-3 cho ChatGPT, trở thành mối quan tâm đặc biệt của các cơ quan quản lý do những mô hình AI đang ngày càng tiên tiến và nhân tính hơn, trở thành nguyên nhân của những lo ngại cho rằng, ngay cả những nhân viên trình độ cao cũng sẽ bị thay thế.

Những quy định pháp lý đề cập đến các vấn đề nào?

Đạo luật AI phân loại những ứng dụng của AI thành bốn cấp độ rủi ro: rủi ro không thể chấp nhận được, rủi ro cao, rủi ro hạn chế và rủi ro tối thiểu hoặc không có rủi ro.

Những ứng dụng rủi ro không thể chấp nhận, mặc định bị cấm và không thể triển khai ứng dụng trong khối EU

Những hệ thống tiềm ẩn rủi ro bao gồm:

- Hệ thống AI sử dụng các kỹ thuật tác động vào tiềm thức hoặc kỹ thuật làm thay đổi hành vi con người nhằm thao túng hoặc lừa đảo.

- Hệ thống AI khai thác những điểm nhạy cảm của cá nhân hoặc một nhóm người cụ thể;

- Hệ thống phân loại sinh trắc học dựa trên những thuộc tính hoặc đặc điểm nhạy cảm của con người;

- Hệ thống AI được sử dụng để chấm điểm hoặc đánh giá độ tin cậy của cộng đồng xã hội.

- Những hệ thống AI được sử dụng để đánh giá các rủi ro tiềm năng, dự đoán những hành vi phạm tội hoặc vi phạm hành chính;

- Những hệ thống AI tạo lập hoặc mở rộng cơ sở dữ liệu nhận dạng khuôn mặt thông qua truy xuất dữ liệu không nhắm mục tiêu.

- Hệ thống AI suy luận cảm xúc, có thể sử dụng trong thực thi pháp luật, kiểm soát biên giới như hải quan và biên phòng, vị trí làm việc và môi trường giáo dục đào tạo.

Một số nhà lập pháp đã kêu gọi thực hiện những biện pháp kiểm soát tốn kém chi phí hơn để đảm bảo những quy định này bao trùm toàn bộ các chatbot AI như ChatGPT. Đặt ra mục đích này, các nhà lập pháp EU đưa ra những quy định, được áp đặt cho những “mô hình nền tảng” như các mô hình ngôn ngữ lớn GPT và AI sáng tạo.

Các nhà phát triển mô hình nền tảng dạng GPT sẽ được yêu cầu áp dụng các biện pháp kiểm soát an toàn, quản trị dữ liệu và giảm thiểu rủi ro trước khi công khai mô hình AI được phát triển.

Các cơ quan chức năng sẽ yêu cầu các nhà phát triển đảm bảo dữ liệu đào tạo cho hệ thống AI không vi phạm luật bản quyền.

Ceyhun Pehlivan, cố vấn tại công ty luật đa quốc gia Linklaters và đồng lãnh đạo nhóm thực hành viễn thông, truyền thông và công nghệ và IP của doanh nghiệp ở Madrid, trả lời CNBC trong cuộc phỏng vấn.

“Các nhà cung cấp những mô hình AI sáng tạo sẽ được yêu cầu thực hiện những biện pháp để đánh giá, kiểm soát và giảm thiểu rủi ro đối với những quyền cơ bản về sức khỏe con người, an toàn xã hội, môi trường, dân chủ và pháp quyền. Họ cũng phải tuân thủ các yêu cầu quản trị dữ liệu, chẳng hạn như kiểm tra tính phù hợp của các nguồn dữ liệu và các sai lệch có thể xảy ra”, ông nói.

Điều quan trọng cần nhấn mạnh là, mặc dù dự thảo luật đã được các nhà lập pháp tại Nghị viện Châu Âu thông qua, nhưng vẫn còn rất lâu mới trở thành Đạo luật.

Tại sao cần có khung pháp lý?

Các công ty tư nhân được giao quyền phát triển công nghệ AI với tốc độ chóng mặt, tạo ra các hệ thống trên mô hình GPT của OpenAI được Microsoft hỗ trợ và Bard của Google.

Ngày 10/5, Google công bố một loạt các bản cập nhật AI mới, bao gồm một mô hình ngôn ngữ tiên tiến có tên PaLM 2, vượt trội hơn so với những hệ thống khác trong một số tác vụ.

Những chatbot AI mới lạ tương tự như ChatGPT lôi cuốn mạnh mẽ nhiều công ty công nghệ và và những nhà nghiên cứu do mô hình ngôn ngữ lớn có khả năng tạo ra những phản hồi nhân tính hóa giống như con người đối với lời nhắc của người dùng, được đào tạo trên cơ sở khối lượng dữ liệu khổng lồ trên internet.

Nhưng công nghệ AI đã xuất hiện trong nhiều năm và được tích hợp vào nhiều ứng dụng và hệ thống. Ví dụ: những thuật toán AI thúc đẩy sự lan truyền của video hoặc ảnh thực phẩm mà người dùng thấy được trên nguồn cấp dữ liệu TikTok hoặc Instagram.

Mục đích những đề xuất của các nhà lập pháp EU là cung cấp một hành lang pháp lý cho các công ty và tổ chức công nghệ, đang phát triển và khai thác sử dụng AI nhằm ngăn chặn những rủi ro trước khi phát sinh.

Phản ứng của ngành công nghệ

Những quy định dự thảo đang làm dấy lên mối lo ngại rất lớn trong ngành công nghệ. Hiệp hội Công nghiệp Máy tính và Truyền thông (CCIA) cho biết, các chuyên gia CNTT lo ngại rằng phạm vi của Đạo luật AI sẽ được mở rộng quá mức và bao trùm cả những mô hình AI vô hại, cản trở sự phát triển của công nghệ.

Boniface de Champris, giám đốc chính sách tại CCIA Châu Âu trong cuộc phỏng vấn với CNBC qua email cho biết: “Thật đáng lo ngại khi nhận thấy, nhiều nhóm ứng dụng AI hữu ích, có thể gây ra rủi ro rất hạn chế hoặc không có rủi ro nào giờ đây sẽ phải đối mặt với những yêu cầu nghiêm ngặt, thậm chí có thể bị cấm ở châu Âu.”

“Đề xuất ban đầu của Ủy ban Châu Âu về Đạo luật AI áp dụng phương thức tiếp cận dựa trên rủi ro, điều chỉnh những hệ thống AI cụ thể gây ra rủi ro rõ ràng. Nhưng các nhà lập pháp EU hiện đã đưa ra những sửa đổi, làm thay đổi bản chất của Đạo luật AI, hiện đang giả định rằng các nhóm ứng dụng AI rộng lớn, được coi là tiềm ẩn của rủi ro.”

Ý kiến của các chuyên gia ngành công nghệ

Dessi Savova, lãnh đạo nhóm công nghệ tại công ty luật Clifford Chance cho lục địa châu Âu cho rằng, những quy định pháp lý của EU sẽ đặt ra một “tiêu chuẩn toàn cầu” cho các điều khoản kiểm soát AI. Đồng thời, các khu vực địa địa lý khác như Trung Quốc, Mỹ và Anh cũng đang nhanh chóng phát triển những quy định pháp lý riêng biệt.

Trả lời phỏng vấn của CNBC qua email, bà Savova nói: “Phạm vi tiếp cận những quy định AI được EU đề xuất khiến các nhà phát triển và các cơ quan quản lý AI trên thế giới buộc phải quan tâm.”

“Câu hỏi đặt ra là liệu Đạo luật AI có thiết lập tiêu chuẩn duy nhất cho AI trên toàn cầu hay không? Trung Quốc, Mỹ và Vương quốc Anh và một số nước đang xác định chính sách AI và những phương pháp điều chỉnh của riêng mình. Không thể phủ nhận rằng tất cả các quốc gia sẽ theo dõi chặt chẽ những cuộc thảo luận về Đạo luật AI và điều chỉnh cách tiếp cận của từng nước cụ thể.”

Savova nói thêm, dự thảo mới nhất của Luật AI, do các nhà lập pháp EU trình bày, hình thành nhiều nguyên tắc đạo đức của AI mà các tổ chức đang đang thúc đẩy áp đặt đối với các nhà phát triển.

Sarah Chander, cố vấn chính sách cấp cao của Tuyên bố về các nguyên tắc và quyền kỹ thuật số “European Digital Rights”, một nhóm đấu tranh về quyền kỹ thuật số có trụ sở tại Brussels cho biết, đạo luật AI sẽ yêu cầu những mô hình nền tảng như GPT phải “được thanh kiểm tra qua những yêu cầu về thử nghiệm, nguồn gốc tài liệu và tính minh bạch.”

Trả lời phỏng vấn qua email với CNBC, Chander nói: “Mặc dù các yêu cầu về tính minh bạch này không loại trừ những thách thức về cơ sở hạ tầng và kinh tế, liên quan đến quá trình phát triển các hệ thống AI quy mô lớn này, nhưng những quy định này yêu cầu các công ty công nghệ công khai lượng điện toán cần thiết để phát triển, một dữ liệu riêng tư của một đối tượng được điều chỉnh của pháp luật châu Âu”.

Pehlivan từ công ty luật Linklaters lưu ý: “Hiện nay đã có một số sáng kiến hướng tới việc điều chỉnh AI trên toàn cầu như ở Trung Quốc và Mỹ. Nhưng Đạo luật AI của EU có thể sẽ đóng một vai trò quan trọng trong việc phát triển những sáng kiến ​​​​lập pháp trên toàn thế giới, EU có thể trở thành khu vực thiết lập những tiêu chuẩn trên trường quốc tế, tương tự như Quy chế bảo vệ Dữ liệu chung, áp đặt trên toàn thế giới đối với nguồn dữ liệu từ châu Âu”.

Theo CNBC