close Đăng nhập

Lầu Năm Góc gây sức ép mạnh mẽ với các công ty công nghệ, yêu cầu AI phục vụ mục đích quân sự

Lầu Năm Góc gây áp lực lên các công ty AI, đặc biệt Anthropic, về việc dùng AI trong quân sự, đe dọa hủy hợp đồng và áp dụng Đạo luật Sản xuất Quốc phòng ban hành năm 1950.

Cuộc gặp giữa Bộ trưởng Chiến tranh Mỹ Pete Hegseth (trái) và CEO Anthropic Dario Amodei (phải) về cho phép quân đội sử dụng không hạn chế công nghệ AI sáng 24/2 không đạt kết quả. Ảnh: AOL.
Cuộc gặp giữa Bộ trưởng Chiến tranh Mỹ Pete Hegseth (trái) và CEO Anthropic Dario Amodei (phải) về cho phép quân đội sử dụng không hạn chế công nghệ AI sáng 24/2 không đạt kết quả. Ảnh: AOL.

Ông chủ Lầu Năm Góc công khai đe dọa Anthropic

Nguồn thạo tin cho biết Bộ trưởng Chiến tranh Mỹ Hegseth đã đưa ra “tối hậu thư” với Anthropic: nếu công ty không thể hiện sự linh hoạt hơn trong hợp tác với quân đội, ông có thể liệt công ty này vào danh sách doanh nghiệp gây rủi ro chuỗi cung ứng, hoặc viện dẫn Defense Production Act (DPA, Đạo luật Sản xuất Quốc phòng) - một đạo luật của Mỹ được ban hành năm 1950 trong bối cảnh Chiến tranh Triều Tiên - để buộc công ty hợp tác chặt chẽ hơn với Lầu Năm Góc.

Báo cáo dẫn ý kiến chuyên gia cho rằng cả hai biện pháp trên đều gần như chưa từng có tiền lệ, bởi việc xác định một công ty gây rủi ro chuỗi cung ứng đồng nghĩa với việc các doanh nghiệp hợp tác với Bộ Quốc phòng sẽ phải chứng minh họ không sử dụng mô hình Claude của Anthropic trong bất kỳ công việc nào liên quan đến quân đội.

Theo các báo, Lầu Năm Góc đang gây sức ép lên bốn công ty gồm Anthropic, OpenAI, Google và xAI, yêu cầu cho phép quân đội sử dụng các công cụ AI của họ cho mọi “mục đích hợp pháp”, bao gồm phát triển vũ khí, thu thập tình báo và hoạt động chiến trường.

Tuy nhiên, Anthropic lo ngại AI có thể bị dùng để tự động quyết định mục tiêu tấn công hoặc giám sát diện rộng công dân Mỹ, nên từ chối gỡ bỏ các cơ chế bảo vệ của mô hình Claude, khiến đàm phán giữa hai bên rơi vào bế tắc. Lầu Năm Góc thậm chí đang cân nhắc hủy hợp đồng trị giá 200 triệu USD ký với Anthropic đã được phê duyệt vào mùa hè năm ngoái.

ceo-anthropic.jpg
CEO Anthropic Dario Amodei kiên quyết kiên trì hai “lằn ranh đỏ” trong việc sử dụng mô hình Claude. Ảnh: AFP.

Nguồn tin cho biết sau cuộc đàm phán ngày 24/2, Anthropic vẫn không có ý định nới lỏng các hạn chế liên quan đến mục đích sử dụng quân sự. Trong khi đó, theo báo cáo, các công ty OpenAI và xAI đã đồng ý gỡ bỏ các hạn chế “biện pháp an toàn” khi hệ thống của họ được dùng trong các hệ thống quân sự không mật, nhưng chưa áp dụng cho các công việc mật có độ nhạy cảm cao hơn.

Nguồn cơn mâu thuẫn giữa Anthropic và Lầu Năm Góc

Mô hình Claude của công ty Anthropic đã được quân đội Mỹ sử dụng trong chiến dịch bắt giữ Tổng thống Venezuela Nicolas Maduro, bao gồm việc ném bom nhiều địa điểm tại thủ đô Caracas.

Thông thường, trong các chiến dịch như vậy, Claude được dùng để hỗ trợ công ty Palantir — một nhà cung cấp AI cho Lầu Năm Góc cùng các cơ quan an ninh và thực thi pháp luật.

Sau cuộc đột kích, Anthropic muốn làm rõ Claude đã được sử dụng như thế nào trong chiến dịch quân sự có liên quan đến tấn công gây chết người. Tuy nhiên, những câu hỏi quan trọng nhất của họ đều bị né tránh. Ngoài các trao đổi thường lệ về vấn đề kỹ thuật thuần túy, không có bất kỳ thảo luận nào với các đối tác trong ngành (bao gồm cả Palantir) về cách Claude đã được dùng trong chiến dịch cụ thể.

Anthropic cũng không muốn tiết lộ Claude đã được áp dụng trong những kịch bản quân sự cụ thể nào dù có phải thông tin mật hay không, nhưng khẳng định rằng mọi hình thức sử dụng, dù của khu vực tư nhân hay chính phủ, đều phải tuân thủ chính sách sử dụng (Usage Policy) của họ, và công ty hợp tác chặt chẽ với đối tác để đảm bảo điều đó.

Anthropic đã ký hợp đồng trị giá 200 triệu USD với Lầu Năm Góc vào mùa hè năm 2025. Nhà sáng lập Dario Amodei nhiều lần công khai nói rằng ông lo ngại nhất hai vấn đề: AI tự chủ thực hiện hành động gây chết người, và việc giám sát quy mô lớn đối với công dân trong nước. Tuy nhiên, Bộ trưởng Quốc phòng Pete Hegseth tuyên bố Lầu Năm Góc sẽ không sử dụng loại AI “không thể phục vụ chiến đấu”. Trước đó, OpenAI đã hợp tác với Gemini để phát triển một nền tảng dành cho quân nhân — một phiên bản ChatGPT tùy chỉnh cho quân đội.

pete-hegseth-dario-amodei-ai-image.jpg
Mâu thuẫn giữa Lầu Năm Góc và Anthropic chủ yếu xoay quanh việc sử dụng Claude trong hoạt động quân sự. Ảnh AI tạo ra của India Today.

Sáng 24/2, Hegseth và Amodei đã gặp nhau tại Lầu Năm Góc. Amodei yêu cầu Bộ Quốc phòng có biện pháp thích hợp để đáp ứng hai điều kiện của ông, nhưng Hegseth khẳng định chỉ cần sử dụng hợp pháp là đủ. Hai bên chia tay trong không khí căng thẳng, và Hegseth lập tức đưa ra lời đe dọa.

Ông tuyên bố nếu Anthropic không đạt được thỏa thuận với Bộ Quốc phòng trước 17h01 chiều thứ Sáu (27/2), ông sẽ viện dẫn Đạo luật Sản xuất Quốc phòng (DPA) để buộc quân đội sử dụng Claude; đồng thời liệt Anthropic vào danh sách doanh nghiệp gây “rủi ro chuỗi cung ứng”. Điều này có thể đe dọa các hợp đồng chính phủ của công ty và ảnh hưởng đến hợp tác giữa Anthropic với tất cả các nhà thầu trong các dự án chính phủ Mỹ.

Sự giận dữ của Lầu Năm Góc cho thấy tầm quan trọng của mô hình Claude đối với quân đội. Hiện Claude là mô hình thương mại duy nhất vận hành trong các hệ thống quân sự mật. Hai bên đã hợp tác, vậy vì sao lại căng thẳng đến mức này?

Cốt lõi mâu thuẫn nằm ở việc ai sẽ kiểm soát “hàng rào an toàn” của AI. Lầu Năm Góc muốn bổ sung một điều khoản chung “mọi mục đích sử dụng hợp pháp” — nghĩa là quân đội có thể dùng Claude cho bất kỳ mục đích nào được pháp luật cho phép, và Anthropic không có quyền từ chối.

Anthropic đồng ý cho phép sử dụng trong quân sự, nhưng vạch ra hai “lằn ranh đỏ”: không cho phép Claude bị dùng để giám sát quy mô lớn công dân Mỹ; không cho phép Claude được dùng trong vũ khí hoàn toàn tự chủ (ví dụ máy bay không người lái có thể khai hỏa mà không cần quyết định cuối cùng của con người). Amodei từng viết rằng điều ông lo ngại nhất là một nhóm nhỏ người có thể “điều khiển cả một đội quân drone” mà không cần người khác phối hợp.

Về bản chất, sự việc này là phép thử định hình vai trò của AI trong lĩnh vực an ninh quốc gia những năm tới: các công ty AI tư nhân có thể duy trì ranh giới đạo đức đối với công nghệ của mình hay cuối cùng chính phủ sẽ là bên quyết định?

Amodei công khai bày tỏ lo ngại rằng vũ khí sát thương tự chủ do AI điều khiển sẽ xuất hiện nhanh hơn nhiều người dự đoán, trong khi các mô hình hiện tại chưa sẵn sàng cho điều đó. Với Anthropic, đây là vấn đề nguyên tắc.

Trong bối cảnh cạnh tranh địa chính trị giữa các cường quốc, AI được xem là công nghệ mang tính quyết định vận mệnh quốc gia. Thời Chiến tranh Lạnh, vũ khí hạt nhân đóng vai trò đó; cuối cùng các cường quốc đã thiết lập cơ chế cân bằng răn đe và kiểm soát vũ khí.

Tuy nhiên, AI khác với vũ khí hạt nhân. Nó đang nhanh chóng tiến tới khả năng tự chủ ra quyết định, có thể kiểm soát vô số hệ thống lớn nhỏ, ứng dụng trong các bối cảnh mà con người khó kiểm soát, bao gồm cả chiến trường, và có khả năng tự đưa ra quyết định hành động. Và khi con người sở hữu vũ khí cực kỳ mạnh mẽ, rất có thể cuối cùng họ sẽ sử dụng nó.

Theo NetEase, TKWW

Thế giới