Cảnh giác thủ đoạn ai Deepfake giả danh người thân gọi video vay tiền về quê

12/02/2026
36 Lượt xem

Cuối năm, khi nhu cầu về quê ăn Tết và sum họp gia đình tăng cao, tội phạm mạng đã nâng cấp thủ đoạn lừa đảo lên một tầm cao mới. Thay vì chỉ nhắn tin giả mạo, chúng sử dụng công nghệ trí tuệ nhân tạo (AI Deepfake) để tạo ra các cuộc gọi video với hình ảnh và giọng nói giống hệt người thân nhằm vay tiền gấp, khiến nhiều nạn nhân dễ dàng sập bẫy.

1. TÍNH NGUY HIỂM CỦA THỦ ĐOẠN

- Công nghệ Deepfake có khả năng sao chép khuôn mặt và giọng nói của người thật, khiến nạn nhân tin rằng mình đang nói chuyện trực tiếp với người thân.

- Tội phạm thường đánh vào sự lo lắng của cha mẹ, anh chị em khi nghe tin người thân ở xa đang gặp sự cố trên đường về quê hoặc thiếu tiền mua vé máy bay giờ chót.

- Các cuộc gọi thường diễn ra rất ngắn, tạo áp lực thời gian để nạn nhân không kịp suy nghĩ thấu đáo và chuyển tiền ngay lập tức.

2. NHẬN BIẾT CHIÊU TRÒ

Để nhận diện các cuộc gọi lừa đảo Deepfake, người dân cần lưu ý các dấu hiệu sau:

- Đối tượng thường tạo ra các cuộc gọi video có chất lượng hình ảnh kém, âm thanh bị rè hoặc giật lag. Chúng thường chủ động ngắt máy sớm với lý do "vùng sâu sóng yếu" hoặc "điện thoại hết pin".

- Nội dung luôn là những tình huống cấp bách như: Bị giữ tại sân bay do thiếu thủ tục, cần tiền đặt cọc vé xe giờ chót, hoặc gặp tai nạn trên đường về quê.

- Dù người gọi là "người thân", nhưng tài khoản yêu cầu chuyển tiền thường mang tên một người lạ hoặc tên "đại lý vé", "nhân viên sân bay" để đánh lạc hướng.

3. CÁCH PHÒNG TRÁNH VÀ XỬ LÝ

- Khi nhận được yêu cầu chuyển tiền qua mạng xã hội (kể cả gọi video), hãy ngắt máy và gọi lại bằng số điện thoại di động thông thường (số thuê bao) hoặc liên lạc qua một kênh thứ ba để xác nhận.

- Hãy hỏi những câu hỏi mang tính riêng tư mà chỉ người thân trong gia đình mới biết (ví dụ: tên thú cưng, kỷ niệm cũ, một sự kiện vừa xảy ra...). Kẻ lừa đảo sử dụng AI sẽ không thể trả lời những câu hỏi này.

- Nếu thấy hình ảnh người thân đứng yên một chỗ, cử động môi không khớp với lời nói, hoặc khuôn mặt trông "đơ", hãy nghi ngờ đó là video được dựng bằng AI.

- Không chuyển tiền vào bất kỳ tài khoản nào không mang tên chính chủ người thân của mình.

Kết luận

Công nghệ càng phát triển, thủ đoạn lừa đảo càng tinh vi. "Thấy tận mắt, nghe tận tai" giờ đây không còn là bằng chứng tuyệt đối trên không gian mạng. Mỗi người dân cần nâng cao tinh thần cảnh giác, tuyên truyền cho người cao tuổi trong gia đình về thủ đoạn này để bảo vệ tài sản, đảm bảo một cái Tết an vui, không lo lừa đảo.

Nguồn: Phòng ANM và PCTPSDCNC

0 (0)

Chia sẻ:

Tìm kiếm
Từ khóa:
Danh mục:
Ngày đăng:
Tìm kiếm
Thống kê truy cập

Số người online: 3

Đã truy cập: 492277

Tương tác công dân

© Bản quyền thuộc về Công An tỉnh Khánh Hòa

Thiết kế và phát triển bởi SweetSoft

server-notice