Trí tuệ nhân tạo nguy hiểm như vũ khí hạt nhân

TờDaily Maildẫn lời một nhà nghiên cứu về công nghệ nói rằng trí tuệ nhân tạo có tiềm năng trở thành mối nguy hiểm cho nhân loại, giống như vũ khí hạt nhân.

Terminator là một trong những sêri phim mô tả mối nguy hiểm đến từ trí tuệ nhân tạo

Terminator là một trong những sêri phim mô tả mối nguy hiểm đến từ trí tuệ nhân tạo

Giáo sư Stuart Russell, nhà khoa học máy tính tại Đại học California (Mỹ) và Trung tâm nghiên cứu về rủi ro của Đại học Cambridge (Anh), một người dẫn đầu về trí tuệ nhân tạo (AI), quan ngại rằng với việc AI phát triển nhanh chóng như hiện nay, nhân loại có thể giống như đang lái xe xuống một vách đá.

Để chứng minh quan điểm của mình, ông Russell chỉ ra rằng sự phát triển nhanh chóng của AI ở các công ty như Boston Dynamics (đã được Google mua lại gần đây) sẽ tạo ra robot sử dụng trong quân đội. Cụ thể, AI có thể dễ dàng bị khai thác để tự động kiểm soát kho vũ khí quân sự.

Giáo sư Stephen Hawking cũng tham gia vào một nhóm các chuyên gia hàng đầu để ký một bức thư ngỏ cảnh báo về nhu cầu bảo mật nhằm đảm bảo AI có một tác động tích cực đối với nhân loại.

Trong một cuộc phỏng vấn với tạp chí Science về trí tuệ nhân tạo, ông Stephen Hawkingcho biết: “Ngay từ đầu, các mối quan tâm chính trong ngành công nghệ hạt nhân đó là nguồn cung cấp năng lượng vô tận mà nó tạo ra. Khả năng của vũ khí hạt nhân đã rõ ràng, và tôi nghĩ rằng có một số điểm tương tự của nó với năng lực làm việc không giới hạn của trí tuệ nhân tạo. Cả hai dường như tạo ra mối lo ngại lớn về những rủi ro có thể. Các quy định lo ngại về vũ khí hạt nhân liên quan đến đối tượng và tài liệu, trong khi với AI nó sẽ là những rắc rối về phần mềm mà chúng ta không thể nào mô tả”.

Gần đây, một loạt tài liệu nêu bật về những tiến bộ trong trí tuệ nhân tạo đã được đăng tải trên tạp chí Science, trong đó các nhà nghiên cứu mô tả sự hỗ trợ của máy tính có thể tạo ra một nguồn năng lực vô tận cho công nghệ này. Và giáo sư Russell cảnh báo rằng sự phát triển không được kiểm soát của AI có thể gây nguy hiểm, nếu hậu quả không được khám phá đầy đủ cũng như đưa ra các quy định.

Vào tháng 4.2015, giáo sư Russell cũng đã bày tỏ quan ngại tại một cuộc họp của Liên Hợp Quốc diễn ra ở Geneva (Thụy Sĩ) về những nguy hiểm trong việc đưa máy bay quân sự và vũ khí dưới sự kiểm soát của hệ thống AI. Kịch bản cơ bản có thể sai lệch, khi đó các mục tiêu mà AI đưa ra rất nguy hiểm. Mặc dù vậy, các quốc gia hiện vẫn đang cố gắng xây dựng hệ thống AI trước khi kẻ thù của họ có thể đạt được.

Giáo sư Russell nói khoa học máy tính cần phải sửa đổi các mục tiêu nghiên cứu của họ để đảm bảo giá trị và mục tiêu mà ở đó, con người vẫn là trung tâm cho sự phát triển của công nghệ AI. Đó cũng là quan điểm của các nhà nghiên cứu Jelena Stajic, Richard Stone, Gilbert Chin và Brad Wible đăng tải trong một bài xã luận trên Science.

Kiến Văn theo Thanh Niên

Lưu tin
Có thể bạn quan tâm
Việt Nam nên tắt 2G hay 3G?

Việt Nam nên tắt 2G hay 3G?

VietTimes – Bộ Thông tin và Truyền thông đã có kế hoạch ngắt kết nối 2G khi công nghệ 5G được triển khai thương mại chính thức. Tuy nhiên, ở một số quốc gia, người ta lại định ngắt 3G chứ không phải 2G.