Theo trang tin Trung Quốc Toutiao (Tin hàng đầu mỗi ngày), sau khi các thủ đoạn lừa đảo truyền thống bị phát giác, nhiều kẻ lừa đảo không ngừng tìm kiếm các phương pháp khác. Hãng tin cho hay một trò lừa đảo mới đã xuất hiện, tỷ lệ thành công gần 100%, đồng thời nhắc nhở mọi người nâng cao cảnh giác.
Công nghệ dùng AI thay đổi khuôn mặt
Hiện nay chúng ta đã bước vào kỷ nguyên số hóa, ngành trí tuệ nhân tạo (AI) đang phát triển như vũ bão và thủ thuật dùng AI hoán đổi khuôn mặt là một trong số đó.
Công nghệ AI hoán đổi khuôn mặt sử dụng rất tiện lợi, chỉ cần một bức ảnh đơn giản là có thể thay đổi với nhiều kiểu quần áo khác nhau, hay có mặt ở những nơi bạn chưa từng đặt chân đến, không chỉ thay đổi danh tính mà còn có thể hoán đổi cả giới tính.
Tính năng thay đổi khuôn mặt AI có thể tách các đặc điểm khuôn mặt khỏi biểu cảm và hợp nhất các video khác với các đặc điểm khuôn mặt của một người. Bạn có thể thấy rằng các biểu cảm trên khuôn mặt giống như trong video gốc nhưng các đặc điểm khuôn mặt đã được thay thế bằng khuôn mặt của người khác và thể hiện rất tự nhiên.
Các ngũ quan trên khuôn mặt trong ảnh rất tự do, có thể tùy ý thay đổi theo ý muốn. Trong cuộc sống giải trí hàng ngày, bạn có thể thay đổi khuôn mặt của mình bằng một cú nhấp chuột, có thể tạo ra rất nhiều sắc thái khác nhau.
Không chỉ trong các video giải trí mà trong nhiều game, người ta cũng có thể sáng tạo nhân vật tùy ý bằng cách thay đổi khuôn mặt thông qua AI. Họ có thể tạo ra bất kỳ nhân vật nào mà mình muốn.
Công nghệ thay đổi khuôn mặt AI được sử dụng rộng rãi trong giải trí và trò chơi hàng ngày, rất nhiều ứng dụng (app) thay đổi khuôn mặt đã lọt vào tầm ngắm của nhiều người.
Nhưng hiện nay, công nghệ AI thay đổi khuôn mặt đã được sử dụng trong lừa đảo và một số kẻ lừa đảo đã sử dụng công nghệ thay đổi khuôn mặt AI để chiếm lòng tin của đối tác và thực hiện hành vi lừa đảo.
Những kẻ lừa đảo có thể sử dụng công nghệ AI để thay đổi khuôn mặt nhằm giả làm bất kỳ người nào, tiến hành lừa đảo thông qua video và nhắm mục tiêu vào các nhóm được chúng sàng lọc.
Phương thức dùng AI đánh lừa
Công nghệ thay đổi khuôn mặt bằng AI được sử dụng để lừa đảo và ngay cả những người có trình độ học vấn cao và ý thức phòng ngừa cũng có thể dễ dàng bị lừa.
Công nghệ thay đổi khuôn mặt bằng AI có thể dễ dàng lấy được lòng tin của đối tác và có thể thay đổi khuôn mặt thành bất kỳ ai, sàng lọc đám đông thông qua các thủ pháp bất hợp pháp và tráo đổi video để lấy lòng tin của đối tác.
Kẻ lừa đảo sẽ sử dụng công nghệ AI thay đổi khuôn mặt và công nghệ tổng hợp giọng nói giả làm bạn bè, người thân của nạn nhân để lừa đảo.
Công nghệ thay đổi khuôn mặt có thể thay thế các đặc điểm khuôn mặt trong hình ảnh thông qua thuật toán sâu, cộng với công nghệ tổng hợp âm thanh, làm giả như thật.
Những kẻ lừa đảo sử dụng hai công nghệ này để bắt chước giọng nói và nét mặt trong các cuộc trò chuyện video WeChat, khiến đối tác nhầm lẫn với người thân và bạn bè thực sự.
Công nghệ thay đổi khuôn mặt AI và công nghệ tổng hợp âm thanh có thể đạt được hiệu ứng chân thực cao; sử dụng thông tin của người thân, bạn bè của nạn nhân rồi dùng con bài tình cảm để đánh lừa nạn nhân.
Không chỉ vậy, những kẻ lừa đảo có thể sử dụng các hệ thống thông minh như ChatGPT để bắt chước giọng điệu và thói quen nói của người thân, đồng thời có thể điều chỉnh linh hoạt.
Những kẻ lừa đảo đã linh hoạt tích hợp nhiều công nghệ khác nhau và có thể đạt được mức độ giả mà như thật khiến người ta cảm thấy khiếp sợ.
Ngày nay, công nghệ thay đổi khuôn mặt AI đã rất hoàn chỉnh, nó không chỉ có thể thay thế khuôn mặt con người trong các tài liệu video mà còn có thể áp dụng trực tiếp vào các cuộc chat video.
Trong cuộc gọi video, người ta có thể tùy ý thay đổi khuôn mặt của mình thành các nhân vật khác và trông rất thật. Công nghệ thay đổi khuôn mặt AI đã trở thành một công nghệ mới để các băng nhóm tội phạm lừa đảo và một chuỗi nghề nghiệp lừa đảo có thể đang dần hoàn chỉnh.
Những điều cần ghi nhớ để tránh bị sập bẫy
Theo bài viết, khi chuyển tiền trong cuộc sống hàng ngày, mọi người cần đặc biệt chú ý, có thể xác nhận qua điện thoại hay các phương tiện khác đó có phải bạn bè hay người thân hay không.
Khi không thể được xác nhận được danh tính của đối tác trong video call, hãy cố gắng đặt thời gian chuyển tiền thành 24 giờ để cho mình có thời gian xử lý.
Cố gắng đặt một số câu hỏi qua điện thoại hoặc gặp trực tiếp để xác nhận thông tin cụ thể và đề phòng bên kia sử dụng công nghệ thay đổi khuôn mặt AI để lừa đảo.
Nâng cao ý thức bảo vệ thông tin cá nhân, đồng thời cẩn thận bảo vệ thông tin cá nhân của bạn bè, người thân trong cuộc sống hàng ngày.
Trong cuộc sống hàng ngày thường xuất hiện những quảng cáo không rõ nguồn gốc và các đường link trúng thưởng, hãy kịp thời cảnh giác, không nên tùy ý điền các thông tin cá nhân, nếu để lộ thông tin cá nhân sẽ dễ bị những kẻ lừa đảo săn lùng chiếm lấy.
Đặc biệt cần nhắc nhở những người lớn tuổi xung quanh nâng cao ý thức về an toàn và khả năng phòng chống gian lận công nghệ, rất nhiều kẻ lừa đảo nhằm người già để ra tay.
Cần làm tốt công tác tuyên truyền ý thức cho người cao tuổi ở trong gia đình, sau khi nhận điện thoại phải kịp thời thông báo cho người nhà xung quanh, tiến hành xác nhận qua điện thoại, không dễ dãi chuyển tiền.
Công nghệ thay đổi khuôn mặt AI đã được áp dụng vào lĩnh vực lừa đảo và những kẻ lừa đảo có thể tìm thấy chính xác bạn bè và người thân xung quanh chúng ta. Vì vậy, hãy luôn đề cao cảnh giác.
Theo Toutiao