Ảnh minh họa.
Tại họp báo thường kỳ của Bộ Thông tin và Truyền thông diễn ra sáng 05/5 vừa qua, đại diện Bộ Thông tin và Truyền thông cho biết, thời gian gần đây xuất hiện hình thức lừa đảo trực tuyến mới là cuộc gọi video Deepfake. Các đối tượng sử dụng công nghệ trí tuệ nhân tạo (AI) để tạo ra những video hoặc hình ảnh giả, sao chép chân dung để tạo ra các đoạn video giả người thân, bạn bè để thực hiện các cuộc gọi lừa đảo trực tuyến, yêu cầu chuyển tiền.
Theo đại diện Bộ Thông tin và Truyền thông, Deepfake đang là một mối đe dọa đối với sự trung thực và tin cậy của video và hình ảnh. Nó có thể được sử dụng không chỉ để lừa đảo trực tuyến mà còn sử dụng cho các mục đích khác như tấn công chính trị, tạo ra những tin tức giả mạo hoặc phá hoại danh tiếng của người khác. Phần lớn hình thức lừa đảo trực tuyến này nhắm tới việc lừa đảo tài chính.
Theo Bộ Thông tin và Truyền thông, đối với các cuộc gọi Deepfake như hiện nay, bằng mắt thường vẫn có thể có một số dấu hiệu để nhận biết như:
- Thời gian gọi thường rất ngắn, chỉ vài giây.
- Khuôn mặt của người gọi thiếu tính cảm xúc và khá "trơ" khi nói; tư thế của họ trông lúng túng, không tự nhiên; hướng đầu và cơ thể của họ trong video không nhất quán với nhau…
- Màu da của nhân vật trong video bất thường, ánh sáng kỳ lạ và bóng đổ không đúng vị trí. Điều này có thể khiến cho video trông rất giả tạo và không tự nhiên.
- Âm thanh trong clip sẽ không khớp với hình ảnh hoặc chuyển động môi của người nói, có nhiều tiếng ồn bị lạc vào clip hoặc clip không có âm thanh.
- Kẻ gian thường sẽ ngắt giữa chừng, bảo là mất sóng, sóng yếu,... khi đang thực hiện cuộc gọi.
Bộ Thông tin và Truyền thông cũng lưu ý một dấu hiệu đáng ngờ và dễ thấy là số tài khoản yêu cầu chuyển tiền đến không phải của người đang thực hiện cuộc gọi.
Theo ông Trần Quang Hưng, Phó Cục trưởng Cục An toàn Thông tin, Bộ Thông tin và Truyền thông, để giải quyết triệt để hình thức lừa đảo như Deepfake, cần triển khai nhiều giải pháp như công nghệ giúp nhận diện cuộc gọi lừa đảo, hạn chế các tài khoản ngân hàng không chính chủ, thực hiện chuẩn hóa thông tin thuê bao,...
Bộ Thông tin và Truyền thông khuyến cáo, trong lúc chờ giải pháp kỹ thuật để ngăn chặn tận gốc rễ các hình thức này, người dân cần luôn cảnh giác và tuyệt đối bình tĩnh.
Khi nhận cuộc gọi có bất kỳ dấu hiệu bất thường nào, người nhận cần cố gắng kéo dài cuộc gọi để biết chắc đang nói chuyện với người thật chứ không phải nói chuyện với một đoạn video deepfake dựng sẵn. Ngoài ra, tuyệt đối không chuyển tiền cho các tài khoản lạ, kể cả tài khoản có tên giống với tên người thân, bạn bè.
PV
Bộ GD&ĐT công bố danh mục 20 phương thức xét tuyển đại học năm 2023