Cảnh báo rủi ro bảo mật từ AI: Hiếu PC chỉ ra những "khiên chắn" kỹ thuật bảo vệ bí mật người dùng khi sử dụng

13/05/2026 12:30

Chuyên gia an ninh mạng Ngô Minh Hiếu khuyến nghị người dùng thiết lập ngay các "khiên chắn" bảo mật để bảo vệ quyền riêng tư trên không gian mạng.

Ngày 12/5, Giám đốc Tổ chức Chống lừa đảo Ngô Minh Hiếu (Hiếu PC) đã tham gia tọa đàm – đối thoại “Hệ sinh thái số - Lá chắn chung của 90 triệu người dùng”. Đây là chương trình trong khuôn khổ Diễn đàn Diễn đàn “Digital Trust in Finance 2026” với chủ đề “Xây dựng niềm tin số tài chính trong kỷ nguyên AI” được tổ chức tại Hà Nội.

Đưa ra góc nhìn tại phiên tọa đàm, chuyên gia Hiếu PC thừa nhận AI đang mang lại những giá trị to lớn cho cuộc sống, từ giải trí, khoa học đến công nghệ. Tuy nhiên, sự tiện lợi đó đang đi kèm với một cái giá vô hình: Dữ liệu cá nhân.

Thực trạng đáng buồn hiện nay là rất nhiều người vô tư tải lên các AI chatbot những dữ liệu cực kỳ nhạy cảm, từ hình ảnh cá nhân, gia đình cho đến các tài liệu nội bộ của doanh nghiệp.

“Có một thực tế là hơn 90% người dùng có lẽ chưa bao giờ đọc điều khoản sử dụng của các nền tảng này. Một phần vì nó quá dài, đọc xong cũng khó hiểu, và nhiều khi lại được viết hoàn toàn bằng tiếng Anh”, ông Hiếu phân tích.

Vị chuyên gia an ninh mạng nhấn mạnh, chúng ta đang sống trong thời đại phụ thuộc sâu sắc vào các nền tảng công nghệ nước ngoài. Quy luật bất thành văn của thế giới số là: Khi bạn được sử dụng một dịch vụ hoàn toàn miễn phí, thì chính dữ liệu của bạn sẽ trở thành sản phẩm để thu lợi. Toàn bộ thông tin mà người dùng cung cấp hoàn toàn có thể bị AI thu thập nhằm huấn luyện mô hình, giúp chúng ngày càng thông minh hơn.

Đáng báo động hơn, thói quen thích dùng "đồ chùa" này đang bị giới tội phạm mạng và hacker khai thác triệt để. Chúng liên tục tung ra các ứng dụng AI tạo ảnh Deepfake miễn phí, biến ảnh thật thành nhân vật hoạt hình hay phong cách Hong Kong... để đánh trúng tâm lý tò mò của đám đông. Chỉ vì một chút hào hứng nhất thời, nhiều người sẵn sàng cấp quyền truy cập toàn bộ kho ảnh và thông tin cá nhân mà không hề suy nghĩ.

Làm thế nào để biến AI từ một mối đe dọa thành công cụ phục vụ an toàn? Theo ông Ngô Minh Hiếu, điều đầu tiên người dùng cần làm là "chậm lại một chút".

Tuyệt đối không đưa thông tin cá nhân, hình ảnh riêng tư lên các chatbot hoặc những ứng dụng lạ không rõ nguồn gốc. Người dùng cần đặt câu hỏi: Đứng sau ứng dụng đó là công ty nào? Và vì sao họ lại cho mình dùng miễn phí?

Bên cạnh việc nâng cao cảnh giác, vị chuyên gia cũng chỉ ra những thiết lập kỹ thuật quan trọng để bảo vệ quyền riêng tư trên các nền tảng AI

Thứ nhất, hãy tập thói quen sử dụng tính năng 'Temporary Chat' (Cuộc trò chuyện tạm thời) có sẵn trên nhiều nền tảng AI hiện nay. Khi bật chế độ này, nội dung tương tác sẽ không bị lưu trữ dài hạn, qua đó hạn chế tối đa rủi ro bị thu thập dữ liệu.

Thứ hai, trong phần cài đặt của các chatbot luôn có mục kiểm soát dữ liệu (Data Control hoặc Data Sharing). Người dùng nên chủ động tắt tính năng chia sẻ dữ liệu nếu không thực sự cần thiết.

Đặc biệt, Hiếu PC chỉ ra một lỗ hổng nhỏ nhưng vô cùng nguy hiểm: “Rất ít người chịu bật xác thực hai lớp (2FA) cho các ứng dụng AI chatbot như ChatGPT hay Gemini” .

Hệ lụy của sự lơ là này là vô cùng tàn khốc. Hiện nay, một trong những cách nhanh nhất để hacker nắm thóp một cá nhân chính là xâm nhập vào tài khoản AI mà họ thường dùng.

“Sau khi hack thành công, chúng chỉ cần nhập đúng một câu lệnh: 'Hãy cho tôi biết tất cả những gì bạn biết về tôi'. Bởi AI ghi nhớ toàn bộ lịch sử tương tác, nó có thể tổng hợp và trích xuất một bức tranh chi tiết đến rợn người về chủ tài khoản. Thử làm điều đó khi về nhà, bạn sẽ thấy AI biết nhiều về mình đến mức nào”, Hiếu PC cảnh báo.