/ Pháp luật - Đời sống
/ Cảnh giác thủ đoạn lừa đảo, tống tiền tự xưng là 'thám tử tư'

Cảnh giác thủ đoạn lừa đảo, tống tiền tự xưng là 'thám tử tư'

13/12/2024 06:32 |

(LSVN) - Cơ quan Công an khuyến cáo thủ đoạn các đối tượng sử dụng công nghệ AI cắt ghép hình ảnh, video clip, sau đó giả danh “thám tử tư” để gửi tin nhắn tống tiền.

Thời gian gần đây, qua công tác nắm tình hình, Phòng An ninh mạng và phòng, chống tội phạm sử dụng công nghệ cao Công an TP. Hải Phòng phát hiện trên địa bàn, các đối tượng sử dụng công nghệ AI cắt ghép hình ảnh, video clip, sau đó giả danh “thám tử tư” để gửi tin nhắn tống tiền, gây hoang mang và tổn thất về tài sản cho nhiều người.

Thủ đoạn của các đối tượng này là tìm kiếm thông tin, hình ảnh, số điện thoại của nạn nhân (chủ yếu là nam giới, có điều kiện kinh tế, có chức vụ trong các cơ quan Đảng, nhà nước, cơ quan, doanh nghiệp) từ nhiều nguồn khác nhau (tài khoản mạng xã hội, báo điện tử,...) và tiến hành cắt ghép hình ảnh khuôn mặt của nạn nhân vào hình ảnh của một người nam giới trong những video clip có nội dung “nhạy cảm” ở các nhà nghỉ, khách sạn,...

Ảnh minh họa.

Ảnh minh họa.

Sau đó, đối tượng giả danh là thám tử tư nhắn tin thông báo với nạn nhân qua địa chỉ hòm thư điện tử cá nhân (email) hoặc qua số điện thoại cá nhân về việc đối tượng được thuê theo dõi nạn nhân một thời gian và phát hiện nạn nhân có những hành vi hủ bại, sa đọa ở chức vụ của mình, đồng thời đối tượng gửi cho nạn nhân đoạn video clip “nhạy cảm” đã được chỉnh sửa, cắt ghép với khuôn mặt của nạn nhân, yêu cầu nạn nhân phải chuyển một khoản tiền điện tử (USDT) vào địa chỉ ví điện tử hoặc số tài khoản ngân hàng mà đối tượng cung cấp để không bị đăng bài lên mạng xã hội, không bị lan truyền những hình ảnh này tới người thân, đồng nghiệp, nếu nạn nhân thực hiện yêu cầu, chúng sẽ đưa lại những tài liệu, video clip "nhạy cảm". Khi nạn nhân bị “sập bẫy”, các đối tượng sẽ hướng dẫn nạn nhân mua tiền điện tử chuyển đến các ví điện tử theo chỉ định hoặc chuyển khoản đến một tài khoản ngân hàng, sau đó chiếm đoạt toàn bộ số tiền.

Đây là một hình thức lừa đảo sử dụng công nghệ Deepfake AI - công nghệ trí tuệ nhân tạo (AI) có khả năng tạo các sản phẩm âm thanh, hình ảnh, video clip làm giả đối tượng ngoài đời thực với độ chính xác rất cao. Những hình ảnh, video “nhạy cảm” được tạo ra bằng “Deepfake" có thể gây ảnh hưởng lớn tới uy tín và cuộc sống của nạn nhân.

Để phòng tránh trường hợp bị lợi dụng hình ảnh cá nhân cho mục đích xấu, mỗi cá nhân cần kiểm tra và điều chỉnh cài đặt quyền riêng tư để hạn chế người có thể xem và truy cập ảnh cá nhân trên các tài khoản mạng xã hội. Hạn chế việc chia sẻ ảnh công khai với người lạ. Bên cạnh đó, không nên chia sẻ quá nhiều thông tin cá nhân (như ảnh cá nhân, số điện thoại, địa chỉ nhà,...) trên không gian mạng trong những trường hợp không thực sự cần thiết, hoặc khi sử dụng xong thì xóa bỏ những thông tin đã chia sẻ trên mạng Internet.

Trường hợp gặp phải những sự việc tương tự, phải nâng cao tỉnh thần cảnh giác với phương châm “Bình tĩnh, không hoảng sợ, không phản hồi, không vội vàng làm theo yêu cầu chuyển tiền của đối tượng”, đồng thời, liên hệ ngay với cơ quan Công an nơi gần nhất để được hỗ trợ, giải quyết.

QUÝ NGUYỄN

Các tin khác