Kỹ sư máy tính từng ở hang ổ lừa đảo thốt lên: "Công nghệ của chúng tiên tiến hơn những gì tôi từng biết”

10/03/2025 11:15

Nhờ có sự hỗ trợ của AI, những kẻ lừa đảo đã thành công chiếm đoạt hàng tỷ USD từ các nạn nhân.

Một đoạn video cho thấy hình ảnh người đàn ông trẻ châu Á với bộ râu ngắn và tóc vàng hoe ngồi trên ghế chơi game trong một căn phòng ngủ bừa bộn. Trong vòng một phút, khuôn mặt anh ta biến đổi qua hơn một chục giới tính và sắc tộc khác nhau.

Đây không phải một bộ lọc mới của TikTok. Video này đang quảng cáo một hệ thống đổi mặt deepfake được cho là công cụ của các tổ chức tội phạm Đông Nam Á sử dụng. Nó được dùng trong các chiêu trò lừa đảo kiểu "vỗ béo rồi làm thịt". Các chuyên gia cho rằng công nghệ này và các công cụ trí tuệ nhân tạo (AI) mới khác - chẳng hạn như chatbot AI tạo sinh - đang làm tăng hiệu quả của các vụ lừa đảo và mở rộng phạm vi tiếp cận tới các nạn nhân mới.

Tuy nhiên, một số hoạt động lừa đảo dường như không thành công với công nghệ mới này.

Sự gia tăng của các vụ lừa đảo “vỗ béo rồi làm thịt"

Kể từ năm 2020, hàng loạt hoạt động lừa đảo kiểu tổng đài, chủ yếu do người Trung Quốc điều hành, đã mọc lên khắp Đông Nam Á, phần lớn ở Campuchia, Myanmar và Lào. Nhận diện của chúng là các vụ lừa đảo "Sha Zhu Pan" (lừa đảo mổ lợn) hay "vỗ béo rồi làm thịt". Trong đó nạn nhân được liên lạc qua mạng xã hội hoặc tin nhắn văn bản, làm quen hoặc bị quyến rũ rồi bị dụ vào các chương trình đầu tư giả mạo - thường là tiền điện tử. 

Ban đầu, các tổ chức này tuyển dụng và nhắm mục tiêu chủ yếu vào người gốc Hoa nhưng hiện nay, nhóm đối tượng ngày càng được mở rộng. Hoạt động bên trong các tòa nhà văn phòng cao tầng trong các khu phức hợp kiên cố, một nhóm điển hình có "người gõ bàn phím" trò chuyện với nạn nhân qua các ứng dụng nhắn tin. Kẻ cầm đầu quản lý các hoạt động sẽ chịu trách nhiệm làm giả khuôn mặt và giọng nói. Mánh khóe ngày càng tinh vi này dẫn đến hậu quả thiệt hại hàng tỷ USD. Và theo các nhà chức trách, AI đang làm cho các vụ lừa đảo của kẻ gian trở nên hiệu quả hơn. 

Đầu năm 2024, Văn phòng Ma túy và Tội phạm của Liên Hợp Quốc (UNODC) đã cảnh báo "những tiến bộ trong chatbot, công nghệ deepfake và tự động hóa" đã cho phép "các chiêu trò lừa đảo mạng tinh vi và gây thiệt hại nhiều hơn". Tổ chức này cho biết: "Bằng cách sử dụng trí tuệ nhân tạo để tạo ra hình ảnh và giọng nói do máy tính tạo ra gần như không thể phân biệt được với hình ảnh và giọng nói thật, những kẻ lừa đảo có thể thực hiện các vụ lừa đảo qua mạng xã hội với tỷ lệ thành công đáng báo động, lợi dụng lòng tin và cảm xúc của mọi người."

Kỹ sư máy tính từng ở hang ổ lừa đảo thốt lên: "Công nghệ của chúng tiên tiến hơn những gì tôi từng biết”- Ảnh 1.

Một thực tế rất đáng lo ngại

Nhiều người làm việc trong các hoạt động lừa đảo mạng này bị dụ dỗ từ các quốc gia khác với lời hứa về công việc hợp pháp. Những người trốn thoát đã kể lại mình bị đánh đập và tra tấn. Judah Tana, giám đốc của Global Advance Projects, một tổ chức phi chính phủ có trụ sở tại Thái Lan, đã hỗ trợ hàng trăm nạn nhân của bọn buôn người trốn thoát khỏi các khu phức hợp lừa đảo ở Myanmar. 

Ông Tana cho biết các tổ chức tội phạm đã ưu tiên nghiên cứu và phát triển AI kể từ "ngày đầu tiên" và sẵn sàng làm mọi cách để có được công nghệ tiên tiến nhất. Ông cho biết một số khu phức hợp lừa đảo ở Myanmar đang sử dụng công nghệ đổi mặt hiện đại. Trong số những người mà ông đã giúp đỡ có một kỹ sư máy tính, người có công việc duy nhất là phát triển AI cho các tổ chức này. 

Ông Tana và các cộng sự của mình đã hỗ trợ cô sau khi cô trốn thoát. Ông nói: "Cô ấy cho biết [công nghệ của họ] tiên tiến hơn bất cứ thứ gì cô ấy từng thấy trên thế giới, bất cứ thứ gì cô ấy từng học." Ông Tana cho biết để đe dọa người phụ nữ này, những người quản lý đã đưa người vào phòng và đánh đập họ trước mặt cô. Ông nói: "Đó là một điều rất, rất, rất đáng lo ngại. Nhưng nó không phải là một trường hợp cá biệt."

Công nghệ phát triển nhanh chóng

Ban đầu chỉ có thể chỉnh sửa cảnh quay sau khi đã quay, nhưng bây giờ, công nghệ deepfake đã được cải thiện nhanh chóng. Năm 2022, các chuyên gia AI giải trí Metaphysic đã khiến khán giả kinh ngạc khi để Simon Cowell giả mạo hát trực tiếp cho Simon Cowell thật trên America's Got Talent. Ngô Minh Hiếu (chuyên gia an ninh mạng tại Việt Nam), cho biết công nghệ đổi mặt thời gian thực - một loại deepfake chỉ thay đổi khuôn mặt của chủ thể - hiện có thể dễ dàng truy cập miễn phí dưới dạng phần mềm nguồn mở hoặc thông qua đăng ký trả phí.

Tổ chức Chống Lừa đảo Toàn cầu (GASO) đã chỉ ra các quảng cáo về phần mềm đổi mặt trên nền tảng nhắn tin được mã hóa Telegram. Phần mềm này cũng tích hợp tính năng nhân bản giọng nói có thể bắt chước mục tiêu với độ tương đồng "từ 60% đến 95%". Tuy nhiên, quảng cáo cảnh báo rằng nó chỉ khớp với âm sắc của giọng nói. 

Một nhà cung cấp phần mềm đổi mặt khác cung cấp hỗ trợ 24/7, "giao hàng tận nơi" tại Campuchia và tuyên bố đã cài đặt sản phẩm của mình tại hơn 1.000 khu phức hợp. Quảng cáo, cũng bằng tiếng Trung Quốc, cho biết hệ thống chỉ yêu cầu một bức ảnh duy nhất và có thể được sử dụng trong các cuộc gọi điện video trên các nền tảng nhắn tin bao gồm WhatsApp, Messenger, Line và các ứng dụng khác. Nó nói: "Chạm vào mặt sẽ không ảnh hưởng đến tính chân thực. Loại bỏ sự cố được tìm thấy trong các phần mềm khác có thể vô tình để lộ khuôn mặt người thật."

Kỹ sư máy tính từng ở hang ổ lừa đảo thốt lên: "Công nghệ của chúng tiên tiến hơn những gì tôi từng biết”- Ảnh 2.

Suy nghĩ bằng lý trí thay vì cảm xúc

Ronnie Tokazowski (chuyên gia tội phạm mạng tại Intelligence for Good), người làm việc với các nạn nhân lừa đảo, cho biết trước đây, một dấu hiệu cảnh báo cho thấy ai đó là kẻ lừa đảo là họ sẽ từ chối gọi điện video. Ông nói: "Nhưng bây giờ những kẻ xấu đã tìm ra cách giải quyết vấn đề đó - và điều đó rất đáng lo ngại". Ông cho biết lời khuyên tốt nhất là không gửi hoặc nhận tiền đến hoặc từ người mà bạn chỉ gặp trực tuyến. 

Ông Chandraiah cho biết biện pháp đối phó tốt nhất với các vụ lừa đảo vỗ béo rồi làm thịt là nâng cao nhận thức, giáo dục và khả năng nhìn thấy các dấu hiệu cảnh báo. "Những kẻ lừa đảo lợi dụng cảm xúc của chúng ta và chúng ta cần bắt đầu suy nghĩ bằng lý trí trước khi bằng trái tim," ông nói. "Ngay cả khi nó có vẻ thật và mối quan hệ đã diễn ra được một thời gian, nếu nó bắt nguồn từ internet và nếu nó đang dần chuyển sang các vấn đề liên quan đến tiền bạc hoặc tiền điện tử, hãy tránh xa nó."