Cảnh báo hành vi ứng dụng AI, ghép mặt, giọng nói giống hệt người thân để lừa đảo

0:00 / 0:00
0:00
  • Nam miền Bắc
  • Nữ miền Bắc
  • Nữ miền Nam
  • Nam miền Nam
VietTimes – Đặc điểm chung của những cuộc gọi video lừa đảo theo cách này thường có âm thanh, hình ảnh không rõ nét, tín hiệu chập chờn giống như cuộc gọi trong vùng sóng yếu hoặc wifi yếu để nạn nhân khó phân biệt thật, giả.
Ảnh minh hoạ.
Ảnh minh hoạ.

Theo Công an tỉnh Tuyên Quang, gần đây, trên không gian mạng xuất hiện một phương thức lừa đảo chiếm đoạt tài sản rất tinh vi như sau: Các đối tượng lừa đảo sử dụng rất tinh vi công nghệ Deepfake - công nghệ ứng dụng trí tuệ nhân tạo - AI, để tạo ra các sản phẩm công nghệ âm thanh, hình ảnh và video làm giả về người nào đó với độ chính xác rất cao.
Các đối tượng lừa đảo thực hiện cuộc gọi video để giả làm người thân vay tiền, giả làm con cái đang du học nước ngoài gọi điện cho bố mẹ nhờ chuyển tiền đóng học phí, hay có thể giả tạo ra những tình huống khẩn cấp như người thân bị tai nạn cần tiền gấp để cấp cứu…

Để thực hiện được hình thức lừa đảo này, các đối tượng tìm kiếm, thu thập thông tin cá nhân, hình ảnh, video có giọng nói được đăng tải công khai trên các tài khoản mạng xã hội… rồi sử dụng công nghệ Deepfake để tạo sẵn những video rất khó phân biệt thật - giả; có hình ảnh, giọng nói của cá nhân đó để phục vụ cho kịch bản lừa đảo.

"Đặc điểm chung của những cuộc gọi video như vậy thường có âm thanh, hình ảnh không rõ nét, tín hiệu chập chờn giống như cuộc gọi video trong khu vực phủ sóng di động hoặc wifi yếu, để nạn nhân khó phân biệt thật, giả. Nếu nạn nhân cẩn thận gọi video để kiểm tra thì chúng sẽ không nhận cuộc gọi hoặc sử dụng phần mềm cắt ghép hình ảnh, video để thực hiện cuộc gọi lừa đảo" - Công an cảnh báo.

Theo khuyến cáo của lực lượng công an, đây là thủ đoạn lừa đảo rất mới, rất tinh vi. Người dân cần nâng cao cảnh giác, khi nhận bất kỳ tin nhắn, cuộc gọi video với nội dung vay, mượn tiền qua các ứng dụng mạng xã hội.

Cùng với đó, cần bình tĩnh, gọi điện thoại trực tiếp cho người thân để xác minh (không gọi qua các ứng dụng như Zalo, Messenger, Viber, Telegram…).

Trường hợp nghi vấn đối tượng giả mạo người thân trên mạng xã hội để lừa đảo, chiếm đoạt tài sản, cần báo ngay cho cơ quan công an gần nhất để được hỗ trợ, xử lý kịp thời.

Hình ảnh nhân vật gọi video lừa đảo khá "trơ", giả tạo

Ông Ngô Minh Hiếu - chuyên gia kỹ thuật tại Trung tâm Giám sát an toàn không gian mạng quốc gia (NCSC) - cho biết, trung tâm có nhận được báo cáo về những vụ việc lừa đảo qua videocall từ năm ngoái đến nay.

Theo ông Hiếu, công nghệ trí tuệ nhân tạo đang giúp ích rất nhiều trong đời sống của con người. Tuy nhiên những kẻ xấu đã lợi dụng công nghệ AI để tạo ra hình ảnh sao chép giọng nói, từ việc chiếm đoạt tài khoản Facebook, Instagram... sau đó nghiên cứu tin nhắn, cách xưng hô, lịch sử giao dịch... để tạo ra những cuộc gọi giả và lừa tiền người thân, gia đình của tài khoản bị hack, cho đến gọi điện trực tiếp tới người bị hại để dựng lên những tình huống khẩn cấp cần chuyển tiền.

Cụ thể, sau khi hack được Facebook của nạn nhân, kẻ lừa đảo đã chủ động nhắn tin trước để mượn tiền, rồi chủ động gọi videocall tới nạn nhân với đoạn video Deepfake và tắt giữa chừng khoảng một vài giây, sau đó nói do bị mất sóng điện thoại... Lúc này, nạn nhân đã tin tưởng và chuyển khoản tiền vì bên kia đang cần mượn tiền gấp.

Chuyên gia Ngô Minh Hiếu lưu ý một dấu hiệu để nhận biết và phòng tránh cuộc gọi Deepfake, đó là khuôn mặt của nhân vật trong video thiếu tính cảm xúc và khá "trơ" khi nói, hoặc tư thế lúng túng, không tự nhiên, hoặc hướng đầu và cơ thể của nhân vật trong video không nhất quán với nhau.

Những điều này có thể sẽ là điểm rất đáng nghi ngờ, chúng ta nên dừng lại để suy nghĩ. Bên cạnh đó, chúng ta cũng có thể thấy màu da của nhân vật trong video bất thường, ánh sáng kỳ lạ và bóng đổ không đúng vị trí… tất cả điều này khiến video trông rất giả tạo và không tự nhiên.

Âm thanh cũng là một vấn đề có thể xảy ra trong video, có thể âm thanh không đồng nhất với hình ảnh, có nhiều tiếng ồn bị lạc vào clip hoặc clip không có âm thanh. Cuối cùng, có thể xảy ra tình huống mà tài khoản chuyển tiền không phải của người đang thực hiện cuộc gọi. Và thường kẻ gian sẽ ngắt giữa chừng cuộc gọi, bảo là mất sóng, sóng yếu...

"Các yếu tố kỳ lạ như trên là báo hiệu đỏ của Deepfake. Vì vậy, người sử dụng cần luôn cảnh giác và tuyệt đối bình tĩnh và chủ động xác thực bằng cách gọi điện thoại trực tiếp hoặc facetime ít nhất trên 1 phút. Sau đó đặt ra những câu hỏi cá nhân mà chỉ có mình và người kia biết. Vì Deepfake sẽ không thể giả được một cuộc trò chuyện thật sự trong thời gian thực mà có tính chuẩn xác cao, dù sao cảm xúc hay biểu cảm của AI hay Deepfake vẫn không thể bắt chước được như người thật tính tới thời điểm này" - chuyên gia Ngô Minh Hiếu nói.

Nếu bị làm giả Deepfake, người sử dụng nên thông báo ngay lập tức cho mọi người biết và báo cơ quan chức năng tại địa chỉ canhbao.ncsc.gov.vn hoặc báo lên dự án chongluadao https://chongluadao.vn; đồng thời cần nâng cao nhận thức về nhận biết lừa đảo trên không gian mạng tại: dauhieuluadao.com./.