AI “mở cửa” cho các cuộc tấn công mạng tinh vi

Việc AI trở nên dễ tiếp cận đã trở lực các cuộc tấn công mạng tinh vi và tin tặc có thể tự động hóa các cuộc tấn công, đẩy nhanh quy trình vận hành, triển khai nhiều chiến dịch phức tạp hơn để đạt được mục đích phi pháp, theo Kaspersky.

Việc ứng dụng AI để tạo ra các kịch bản và tổ chức thực hiện lừa đảo trên mạng xã hội hiện nay khá phổ biến, khiến nhiều người dân "sập bẫy".
Việc ứng dụng AI để tạo ra các kịch bản và tổ chức thực hiện lừa đảo trên mạng xã hội hiện nay khá phổ biến, khiến nhiều người dân "sập bẫy".

Khi AI trở nên ngày càng dễ tiếp cận, ngày càng có nhiều người dùng cá nhân và doanh nghiệp sử dụng AI thông qua các công cụ phổ thông. AI có khả năng đáp ứng nhiều tác vụ trong các lĩnh vực khác nhau, bao gồm sáng tạo nội dung cho đến lập trình bằng ngôn ngữ tự nhiên.

Theo chuyên gia Kaspersky, ChatGPT đã trở thành công cụ để tội phạm mạng phát triển các phần mềm độc hại và tự động triển khai các cuộc tấn công đến nhiều nạn nhân. Cụ thể, AI có thể xâm nhập dữ liệu của người dùng trên điện thoại thông minh và thông qua quá trình phân tích dữ liệu nhạy cảm, kẻ xấu hoàn toàn có thể “đọc trộm" tin nhắn, mật khẩu và mã ngân hàng của nạn nhân.

Nghiên cứu của Kaspersky về việc sử dụng AI để bẻ khóa mật khẩu chỉ ra rằng tình trạng mật khẩu bị rò rỉ từ những cơ sở dữ liệu diễn ra thường xuyên, gây ảnh hưởng đến nhiều doanh nghiệp non trẻ lẫn những doanh nghiệp đi đầu trong lĩnh vực công nghệ.

Dẫn ví dụ cụ thể, vào tháng 7/2024, bảng tổng hợp mật khẩu lớn nhất lịch sử đã bị phát tán trực tuyến, bao gồm 10 tỷ mật khẩu dưới dạng văn bản và 8,2 tỷ mật khẩu chứa ký tự đặc biệt, ông Alexey Antonov - Trưởng nhóm Khoa học Dữ liệu tại Kaspersky, cho biết 32% mật khẩu người dùng không đủ mạnh.

Thông qua AI, kẻ xấu có thể khai thác các nội dung lừa đảo, bao gồm văn bản, hình ảnh, âm thanh và video để triển khai tấn công phi kỹ thuật. Những mô hình ngôn ngữ lớn như ChatGPT-4o được tận dụng để tạo ra kịch bản và tin nhắn lừa đảo vô cùng tinh vi. Vượt qua rào cản ngôn ngữ, AI có thể viết ra một email chân thật, chỉ cần dựa vào thông tin trên mạng xã hội. Thậm chí, AI có thể bắt chước văn phong của nạn nhân. Điều này càng khiến hành vi lừa đảo khó phát hiện hơn.

Song song, Deepfakes hiện hữu như một “vấn nạn” trong an ninh mạng, mặc dù trước đó được xem là sản phẩm nghiên cứu khoa học. Mạo danh người nổi tiếng để trục lợi tài chính là cách thức phổ biến nhất, tiếp đến kẻ lừa đảo còn sử dụng Deepfakes để đánh cắp tài khoản, gọi điện mạo danh tới bạn bè và người thân của nạn nhân nhằm chiếm đoạt tài sản.

Chiêu trò lừa đảo ngày càng tinh vi hơn khi tội phạm mạng lợi dụng các trang web hẹn hò để trục lợi tài chính. Tiếp cận mục tiêu trên những trang web này, kẻ xấu tạo hồ sơ giả mạo, xây dựng mối quan hệ tình cảm để nạn nhân tuân theo những yêu cầu trục lợi. Vào tháng 2 năm 2024, một cuộc gọi video lừa đảo đã diễn ra tại Hồng Kông (Trung Quốc). Mô phỏng cuộc họp trực tuyến, kẻ lừa đảo sử dụng Deepfake đóng giả giám đốc điều hành, thuyết phục nhân viên tài chính chuyển 25 triệu USD.

Bên cạnh việc lợi dụng công nghệ AI vào những hoạt động phi pháp, kẻ xấu còn có thể tấn công những thuật toán AI.

Trong đó, có 2 cách phổ biến, Thứ nhất, tấn công “tiêm lệnh” (Prompt Injection attacks), tin tặc nhập những câu lệnh độc hại vào các mô hình ngôn ngữ lớn, thậm chí đi ngược những quy tắc đã bị hạn chế trước đó.

Và cách thứ hai, tấn công đối kháng (Adversarial attacks), tin tặc thêm những trường thông tin ẩn vào hình ảnh, hoặc âm thanh, để gây ảnh hưởng đến khả năng phân loại hình ảnh của hệ thống học máy.

AI là công nghệ lưỡng dụng, được dùng cho cả mục đích tấn công và phòng thủ

Tại Việt Nam, các chuyên gia bảo mật cho rằng, trí tuệ nhân tạo (AI) đang định hình lại gần như mọi ngành công nghiệp và an toàn thông tin mạng cũng không ngoại lệ. AI đang góp phần cách mạng hóa lĩnh vực an toàn thông tin, trên cả hai chiến tuyến tấn công mạng và phòng thủ hệ thống.

lua-dao-su-dung-deepfake-1-1-1157638446457340324442.jpg
Việc gia tăng sử dụng công nghệ AI đang mang lại cả lợi ích cùng những nguy cơ mới. (Ảnh minh họa: Freepik)

Theo một khảo sát, có tới 85% nhà lãnh đạo an toàn thông tin trên toàn cầu cho biết các cuộc tấn công gần đây được hỗ trợ bởi AI, nhưng cũng có tới 50% các tổ chức trên thế giới sẽ đẩy mạnh ứng dụng AI vào các công cụ an toàn thông tin mạng nhờ khả năng phân tích các tập dữ liệu lớn với tốc độ cực nhanh, các giải pháp được hỗ trợ bởi AI có thể sàng lọc lượng dữ liệu khổng lồ để xác định hành vi bất thường và phát hiện hoạt động độc hại mà công nghệ truyền thống chưa xử lý được, đặc biệt trong việc xác định kịp thời một cuộc tấn công zero-day mới.

Chia sẻ tại sự kiện Vietnam Security Summit 2024 chủ đề “An toàn trong thời kỳ bùng nổ của trí tuệ nhân tạo” diễn ra gần đây, đại diện Cục An toàn thông tin đã nêu rõ quan điểm: AI là công nghệ lưỡng dụng, được sử dụng cho cả mục đích tấn công và phòng thủ.

Cũng theo Cục An toàn thông tin, một trong những mối đe dọa lớn là tin tặc sử dụng AI để phát động các cuộc tấn công lừa đảo có mục tiêu. Tại Việt Nam, mặc dù các cơ quan, tổ chức đã triển khai nhiều giải pháp, nhưng việc ứng dụng AI để tạo ra các kịch bản và tổ chức thực hiện lừa đảo trên mạng xã hội hiện khá phổ biến và nhiều người dân đã bị lừa.

“Khả năng nhận diện và phòng tránh các hình thức lừa đảo trực tuyến ngày càng khó khăn, khi các đối tượng ứng dụng AI để tạo ra kịch bản, bằng chứng, minh chứng để lừa người dùng", đại diện Cục An toàn thông tin phân tích và nêu quan điểm rằng những kỹ thuật tấn công lừa đảo cũng ngày càng phát triển, từ việc đơn giản là lừa đảo, lấy cắp mật khẩu qua email, cho đến việc kết hợp công nghệ AI để tạo ra những âm thanh, hình ảnh, video giả mạo mà mắt thường của con người không thể phát hiện ra được, đó là DeepVoice, DeepFake...