Chia sẻ kiến thức

Deepfake và AI scam — Lừa đảo tài chính thế hệ mới

Tóm tắt: 8.000-10.000 tỷ VNĐ/năm thiệt hại lừa đảo online (Bộ CA, 2023). Thế hệ mới: deepfake video call (1 nạn nhân TPHCM mất 3.5 tỷ), voice cloning (vài giây audio đủ sao chép giọng), AI phishing (không còn lỗi chính tả), deepfake celebrity endorsements, synthetic identity (mở TK giả bằng AI). Quyết định 2345/QD-NHNN (07/2024) yêu cầu xác thực sinh trắc học >10 triệu — giảm 50-70% vụ lừa đảo chuyển khoản. Nhưng deepfake đang vượt qua cả biometric.

6 loại AI scam — Nguy hiểm hơn scam truyền thống

1. Deepfake video call — Giả người thân gọi video

Cách hoạt động: Dùng AI tạo video giả real-time — khuôn mặt, biểu cảm, chuyển động miệng khớp lời nói. Chỉ cần 1 ảnh hoặc vài video ngắn trên MXH.

Vụ án TPHCM (2023): Nạn nhân nhận video call từ “bạn thân” → khuôn mặt, giọng nói đúng → yêu cầu chuyển gấp → mất 3.5 tỷ VNĐ.

Tại sao hiệu quả: Con người tin video hơn text/voice. Nếu “nhìn thấy” người quen → bỏ qua cảnh giác.

2. Voice cloning — Sao chép giọng nói

Chỉ cần 3-10 giây audio (voicemail, video TikTok, cuộc gọi) → AI clone giọng gần như 100%.

Kịch bản phổ biến: gọi điện giả giọng con/cháu cho cha mẹ/ông bà: “Mẹ ơi, con bị tai nạn, chuyển gấp 50 triệu!” Giọng giống con → mẹ chuyển ngay.

3. AI phishing — Không còn lỗi chính tả

Trước: email/SMS lừa đảo có lỗi chính tả, ngữ pháp lạ → dễ nhận ra. Nay: AI (LLM) viết tiếng Việt hoàn hảo, cá nhân hoá, biết tên bạn, biết ngân hàng bạn dùng.

4. Deepfake celebrity endorsement

Video giả người nổi tiếng (doanh nhân, nghệ sĩ) quảng bá đầu tư scam. Lan tràn trên Facebook, TikTok tại VN (2024). Nạn nhân tin vì “thấy người nổi tiếng nói.”

5. Synthetic identity — Danh tính AI

AI tạo CCCD giả, khuôn mặt giả → mở tài khoản NH/ví điện tử → nhận tiền lừa đảo → biến mất. Quyết định 2345 (biometric matching với chip CCCD) phần nào ngăn — nhưng AI cũng đang vượt qua biometric.

6. AI chatbot romance scam

Chatbot AI duy trì “mối quan hệ” hàng tháng với nạn nhân (chủ yếu phụ nữ trung niên) → xây dựng tin tưởng → xin chuyển tiền. AI có thể chat 24/7, nhất quán, không mệt mỏi → hiệu quả hơn scammer người.

Quyết định 2345 — Phản ứng của NHNN

Quyết định 2345/QD-NHNN (hiệu lực 01/07/2024): chuyển khoản >10 triệu VNĐ qua online banking phải xác thực sinh trắc học (face matching với dữ liệu chip CCCD).

Kết quả: Một số NH báo cáo giảm 50-70% vụ lừa đảo chuyển khoản Q3/2024 vs Q2/2024.

VNeID: 50+ triệu cài đặt — xác minh danh tính gắn CCCD quốc gia, trở thành trust anchor chống giả mạo.

Nhưng: Deepfake đang nhanh chóng vượt qua biometric đơn giản. Cuộc chạy đua AI phòng thủ vs AI tấn công chỉ mới bắt đầu.

Phòng tránh — Quy tắc mới cho thời đại AI

5 KHÔNG (mở rộng cho AI scam)

  1. KHÔNG tin video call xin chuyển tiền gấp — gọi lại bằng số điện thoại bạn đã lưu (không phải số gọi đến).
  2. KHÔNG chuyển tiền vì voice call khẩn cấp — xác minh bằng cách khác (gọi người thứ 3 trong gia đình).
  3. KHÔNG tin video người nổi tiếng quảng bá đầu tư — kiểm tra website chính thức của người đó.
  4. KHÔNG chia sẻ voice/video dài trên MXH công khai — mỗi clip = nguyên liệu cho deepfake/voice clone.
  5. KHÔNG bypass biometric verification — nếu NH yêu cầu xác thực khuôn mặt, đó là bảo vệ bạn.

Xác minh — Kênh thứ 2

Quy tắc mới nhất: bất kỳ yêu cầu chuyển tiền nào qua kênh số (call, video, chat) → xác minh qua kênh khác (gọi lại số đã lưu, gặp trực tiếp, hỏi câu chỉ 2 người biết).

Deepfake giả được hình ảnh và giọng — nhưng không giả được thông tin chỉ bạn và người đó biết.

Học Nhé — Tri thức là phòng tuyến cuối cùng

Học Nhé tin rằng trong thời đại AI, tri thức là phòng tuyến cuối cùng chống lừa đảo. Khi AI tạo deepfake hoàn hảo, công nghệ chống deepfake có thể bị vượt qua — nhưng con người biết cách xác minh thì không bị lừa.

Kết luận

  • 8.000-10.000 tỷ VNĐ/năm thiệt hại lừa đảo online tại VN.
  • 6 loại AI scam mới: deepfake video, voice clone, AI phishing, fake celebrity, synthetic ID, AI chatbot romance.
  • Quyết định 2345: biometric >10 triệu → giảm 50-70% vụ lừa đảo — nhưng AI đang vượt qua.
  • Phòng tránh: 5 KHÔNG mở rộng + xác minh kênh thứ 2 (gọi lại số đã lưu).
  • Deepfake giả hình ảnh, giọng — nhưng không giả được thông tin chỉ 2 người biết.

Bài viết thuộc chuỗi Chia sẻ kiến thức Học Nhé — Học tài chính, chiến lược kiến tạo tương lai.

Bạn thấy bài viết hữu ích?

Chia sẻ với bạn bè để họ cũng có thể học hỏi!

💡 Mỗi lượt chia sẻ giúp nhiều người khác có cơ hội học hỏi kiến thức mới!