Lừa đảo bằng cách giả mạo giọng nói, hình ảnh qua công nghệ Deepfake

Thứ Sáu, 31/03/2023 | 16:18

Các đối tượng tội phạm công nghệ cao sử dụng Deepfake AI (phần mềm ghép mặt và giọng nói) giống hệt người quen của nạn nhân để thực hiện hành vi lừa đảo. Cách thức này được dùng để lừa đối với những người đã rất cảnh giác, họ cẩn thận gọi video qua Facebook, Zalo kiểm chứng và… sập bẫy.

Tội phạm công nghệ cao lừa đảo bằng phần mềm giả giọng nói, gương mặt. Ảnh minh họa: Internet

Ngỡ ngàng khi bị lừa dù đã gọi gặp mặt trực tiếp

Chị T.Nhi (Phường 1, TP. Bạc Liêu) đã vô cùng ngỡ ngàng khi biết mình bị lừa vì đã chuyển khoản cho một đối tượng giả mạo anh trai chị. Số tiền chuyển khoản chỉ 5 triệu đồng, nhưng bài học mà chị nhận được thật đắt giá.

Chị Nhi kể, lúc đó là buổi tối, tầm 19 giờ, chị nhận được cuộc gọi video qua Zalo của anh trai, có hình ảnh anh đang ở ngoài đường. Anh nói đang đi mua đồ thì thiếu tiền, mà tài khoản của anh vừa chuyển hết tiền cho người ta lấy hàng. Cuộc gọi chập chờn, sau đó thì ngắt kết nối, kế đó chị nhận được tin anh trai nhắn ở ngoài này sóng yếu. Không nghi ngờ gì nữa, chị Nhi chuyển tiền 5 triệu qua số tài khoản anh trai yêu cầu, là số tài khoản người bán hàng.

Mãi đến ngày hôm sau, thấy anh trai đăng thông báo tài khoản Zalo đã bị hack, chị mới té ngửa vì mình đã trở thành nạn nhân của trò lừa đảo công nghệ cao: ghép mặt và giọng nói.

Khó phân biệt thật giả

Việc những công nghệ tinh vi có thể giả được giọng nói, giả được gương mặt thật sự là một cái bẫy dễ dàng lừa đảo nhiều người, nhất là với những người không rành công nghệ.

Hiện nay, các vụ rò rỉ dữ liệu cá nhân vẫn diễn ra tràn lan, trong đó có thông tin, hình ảnh của các nạn nhân. Ngoài ra, chính bản thân chúng ta cũng vô tình tiếp tay cho bọn tội phạm khi thường xuyên chụp ảnh, quay video phát cả giọng nói của mình chia sẻ lên mạng xã hội (MXH). Đó chính là những “mỏ vàng” dữ liệu cho kẻ xấu thu thập để giả mạo.

Nhằm phục vụ trò lừa đảo, chúng tìm kiếm, thu thập thông tin cá nhân, hình ảnh, video có giọng nói được đăng tải công khai trên các tài khoản MXH… rồi sử dụng công nghệ Deepfake để tạo sẵn những video rất khó phân biệt thật - giả, có hình ảnh, giọng nói của cá nhân đó để phục vụ kịch bản lừa đảo. Những cuộc gọi video như vậy thường có âm thanh không rõ nét, tín hiệu chập chờn giống cuộc gọi trong vùng phủ sóng yếu để nạn nhân khó phân biệt.

Làm thế nào để tránh bẫy Deepfake?

Lợi dụng công nghệ Deepfake là một hình thức lừa đảo vô cùng tinh vi. Vậy làm cách nào để phòng ngừa nếu bản thân gặp trường hợp tương tự? Lời khuyên trước nhất là phải nâng cao cảnh giác khi nhận bất kỳ tin nhắn, cuộc gọi video với nội dung vay, mượn tiền qua các ứng dụng MXH. Đừng tin vào các cuộc gọi qua ứng dụng như Zalo, Messenger, Viber, Telegram… Nếu thật sự là người thân, hãy thực hiện cuộc gọi qua sim điện thoại.

Ngoài ra, theo các chuyên gia bảo mật, để có thể kiểm tra phía bên gọi có sử dụng Deepfake AI để giả mạo trong những cuộc gọi video hay không, hãy yêu cầu họ quay mặt sang bên các góc 90 độ hoặc yêu cầu họ đưa tay trước mặt. Khi đưa tay lên khuôn mặt, sự chồng chéo của bàn tay và khuôn mặt khiến AI bị nhầm lẫn, thao tác này thường được gọi là “tạo mặt nạ” hoặc “xóa nền”.

Bên cạnh đó, nếu các cuộc gọi thoại hay video có chất lượng kém, chập chờn thì chính là một yếu tố để bạn nghi ngờ người gọi cũng như tính xác thực của cuộc gọi.

Hãy lưu giữ cẩn thận thông tin cá nhân của bạn, như số căn cước công dân, địa chỉ nhà riêng, ngày sinh, số điện thoại, tên đệm và thậm chí cả tên của con cái… Đừng trưng bày mọi thông tin của bạn trên MXH, vì những kẻ lừa đảo có thể sử dụng thông tin này để mạo danh bạn khi liên hệ với ngân hàng và những người khác.

Kim Kim

Viết bình luận mới
thăm dò ý kiến

Theo bạn, điều gì có thể giữ chân và thu hút người tài vào khu vực công?

THÔNG TIN CẦN BIẾT
Nhiều mây, có mưa, có nơi mưa vừa, mưa to và rải rác có dông. Gió tây nam cấp 3. Trong cơn dông có khả năng xảy ra lốc, sét và gió giật mạnh.