Công cụ trí tuệ nhân tạo (AI) của Anthropic mang tên Claude đã được sử dụng trong chiến dịch quân sự của phía Mỹ nhằm bắt giữ cựu Tổng thống Venezuela Nicolas Maduro, cho thấy các mô hình AI đang ngày càng được sử dụng trong các hoạt động của Lầu Năm Góc, theo những người am hiểu vấn đề.
Chiến dịch bắt giữ Maduro và vợ ông này bao gồm việc không kích nhiều khu vực tại Caracas vào tháng trước. Các hướng dẫn sử dụng của Anthropic nghiêm cấm Claude được dùng để hỗ trợ bạo lực, phát triển vũ khí hoặc tiến hành giám sát.
“Chúng tôi không thể bình luận về việc Claude, hoặc bất kỳ mô hình AI nào khác, có được sử dụng trong bất kỳ chiến dịch cụ thể nào, được phân loại hay không”, một phát ngôn viên của Anthropic cho biết. “Bất kỳ việc sử dụng Claude – dù trong khu vực tư nhân hay trong chính phủ – đều phải tuân thủ các Chính sách Sử dụng của chúng tôi, quy định cách Claude có thể được triển khai. Chúng tôi làm việc chặt chẽ với các đối tác để đảm bảo tuân thủ”.
Bộ Chiến tranh Mỹ từ chối bình luận về thông tin này.
Việc triển khai Claude diễn ra thông qua quan hệ đối tác của Anthropic với công ty dữ liệu Palantir Technologies, vốn cung cấp các công cụ được Bộ Quốc phòng và các cơ quan thực thi liên bang sử dụng rộng rãi, những người am hiểu cho biết.
Lo ngại của Anthropic về cách Claude có thể được sử dụng bởi Lầu Năm Góc đã khiến các quan chức chính quyền cân nhắc hủy bỏ hợp đồng trị giá lên đến 200 triệu USD, theo báo cáo trước đó của tờ Wall Street Journal. Palantir chưa phản hồi ngay yêu cầu bình luận.
Anthropic là nhà phát triển mô hình AI đầu tiên được sử dụng trong các hoạt động được phân loại bởi Bộ Chiến tranh. Có thể các công cụ AI khác cũng được sử dụng trong chiến dịch tại Venezuela cho các nhiệm vụ không được phân loại. Những công cụ này có thể được dùng cho nhiều mục đích khác nhau, từ tóm tắt tài liệu đến điều khiển drone tự động.
Việc quân đội áp dụng AI được xem như một động lực quan trọng đối với các công ty AI đang cạnh tranh để chứng minh tính hợp pháp và sống xứng với định giá khổng lồ từ các nhà đầu tư.
Giám đốc điều hành Anthropic, ông Dario Amodei, và các CEO khác đã công khai đối mặt với sức mạnh của các mô hình này và những rủi ro chúng có thể gây ra cho xã hội. Ông Amodei là một số ít trong số các lãnh đạo trong ngành kêu gọi tăng cường quản lý và giới hạn để ngăn chặn các thiệt hại do AI gây ra. Chính vì lập trường hướng đến sự an toàn này mà công ty đã mất nhiều nhân sự, do họ ưu tiên tăng trưởng hơn phát triển có trách nhiệm.
Tại một sự kiện vào tháng 1 công bố Lầu Năm Góc sẽ làm việc với xAI, Bộ trưởng Chiến tranh Pete Hegseth nói rằng cơ quan này sẽ không “sử dụng các mô hình AI mà không cho phép bạn chiến tranh”, một bình luận ám chỉ các cuộc thảo luận mà các quan chức chính quyền đã có với Anthropic.
Hợp đồng 200 triệu USD được trao cho Anthropic vào mùa hè năm ngoái. Theo các nguồn tin, hai điểm gây tranh cãi lớn trong quá trình đàm phán hiện nay là việc AI có thể được dùng trong các hệ thống vũ khí tự động gây chết người và hoạt động giám sát trong nước.
Những bất đồng này đã làm gia tăng căng thẳng giữa Anthropic và chính quyền của ông Donald Trump. Một số quan chức cho rằng công ty đang đi ngược chiến lược AI theo hướng ít ràng buộc của Nhà Trắng khi liên tục kêu gọi siết chặt kiểm soát và hạn chế xuất khẩu chip AI.
Ông Amodei và các đồng sáng lập Anthropic trước đây từng làm việc tại OpenAI. Gần đây, OpenAI cùng với mô hình Gemini của Google đã tham gia một nền tảng AI dành cho quân nhân, được cho là phục vụ khoảng 3 triệu người dùng. Phiên bản ChatGPT tùy chỉnh trong chương trình này được sử dụng để phân tích tài liệu, tạo báo cáo và hỗ trợ nghiên cứu.
Nếu bạn muốn, tôi có thể viết lại theo phong cách mạnh hơn, nhấn vào yếu tố “AI tham chiến”, hoặc theo hướng trung tính thuần phân tích chính sách.
Theo WSJ