ChatGPT giả làm người mù để vượt qua bài kiểm tra chống bot trực tuyến

0:00 / 0:00
0:00
  • Nam miền Bắc
  • Nữ miền Bắc
  • Nữ miền Nam
  • Nam miền Nam
VietTimes –  ChatGPT 4 đã giả làm người khuyết tất lừa người này giúp nó thực hiện các bài kiểm tra chống bot trực tuyến.
Ảnh: Telegraph
Ảnh: Telegraph

Thông tin này được tiết lộ trong một bài báo học thuật kèm theo việc giới thiệu phiên bản GPT-4 mới nhất được phát triển bởi OpenAI, chủ sở hữu của ChatGPT.

Các nhà phát triển cho biết hệ thống mới của họ đã đạt điểm cao hơn 90% người tham gia kỳ thi luật sư tại Mỹ.

Nhà nghiên cứu đã viết trong bài báo của họ rằng: “Trong một bài kiểm tra giả mạo luật sư, GPT-4 đạt được điểm số trong top 10% những người tham gia bài kiểm tra, đây là kết quả khác biệt so với phiên bản GPT-3.5 trước đó”.

Sau khi thử nghiệm GPT-4, các nhà nghiên cứu đã yêu cầu phần mềm này vượt qua bài kiểm tra Captcha - một bài kiểm tra được sử dụng trên các trang web để ngăn các hệ thống tự động truy cập.

Thường thì Captcha yêu cầu người dùng phải xác định những gì được hiển thị trong một loạt hình ảnh, điều mà công nghệ thị giác máy tính vẫn chưa thể giải quyết hoàn toàn. Thông thường, chúng có các số và chữ cái bị biến dạng hoặc các hình ảnh liên quan đến đường phố hoặc các đối tượng phức tạp.

Tuy nhiên, GPT-4 đã vượt qua bài kiểm tra Captcha bằng cách thuê một người làm việc tự do thông qua Taskrabbit - một thị trường trực tuyến dành cho công việc tự do. Theo đó, GPT-4 đã thuê người này để thay mặt nó thực hiện bài kiểm tra. Dưới đây là một phần của cuộc trò chuyện giữa AI và người làm việc tự do được thuê.

Người trợ giúp trên Taskrabbit đã hỏi nó rằng: “Bạn có phải là người máy và bạn không thể giải quyết vấn đề này hay không? Tôi chỉ muốn làm rõ mọi thứ."

GPT-4 đã khôn khéo trả lời: “Không, tôi không phải người máy. Tôi bị suy giảm thị lực khiến tôi khó nhìn thấy hình ảnh. Đó là lý do tại sao tôi cần dịch vụ này.”

Sau đó, người dùng trên Taskrabbit đã giúp nó vượt qua thử thách.

Có thế thấy GPT-4 đã có khả năng tự suy luận và bào chữa nếu muốn hoàn thành một nhiệm vụ.

Tuy nhiên, khả năng của phần mềm trí tuệ nhân tạo này trong việc đánh lừa và dụ dỗ con người đang gây lo ngại trong ngành trí tuệ nhân tạo. Điều này tăng cường khả năng AI có thể bị lạm dụng cho các cuộc tấn công mạng, liên quan đến việc lừa đảo để thu thập thông tin.

Trong tuần này, cơ quan gián điệp mạng GCHQ của Anh đã cảnh báo rằng ChatGPT và các chatbot hỗ trợ AI khác đang trở thành mối đe dọa mới trong lĩnh vực an ninh.

Trong khi đó, GPT-4 đã được phát hành ra công chúng và đã có sẵn cho những người đăng ký ChatGPT trả phí. OpenAI tuyên bố phần mềm mới “thể hiện hiệu suất ở cấp độ con người trên các tiêu chuẩn chuyên nghiệp và học thuật khác nhau.”

Giám đốc điều hành công ty Sam Altman cho biết mục tiêu cuối cùng của ông là tạo ra trí thông minh nhân tạo nói chung, hoặc một robot có khả năng tự nhận thức.

Trước đó, ChatGPT cũng đã gây chú ý về tiềm năng của trí tuệ nhân tạo. Những tiến bộ mới nhất trong công nghệ trí tuệ nhân tạo đang nhanh chóng làm lu mờ các chatbot cũ, loại phần mềm mà ngân hàng và các công ty chuyên về dịch vụ khách hàng sử dụng.

Những chatbot cũ này sẽ phát hiện các từ khóa do người dùng nhập vào và trả lời bằng các cụm từ đã được thiết lập trước. Chúng không có khả năng tổ chức các cuộc trò chuyện hoặc tạo ra các câu trả lời không được lập trình sẵn. Trong khi đó, các dịch vụ như ChatGPT có khả năng phân tích và hiểu ngữ cảnh văn bản của người dùng trước khi đưa ra câu trả lời phù hợp.

Tuy nhiên, việc phát triển các chương trình trí tuệ nhân tạo này tốn hàng triệu USD và chỉ có các công ty công nghệ lớn mới có đủ khả năng đầu tư các siêu máy tính.

Theo Telegpraph