Quốc phòng - An ninh
Lừa đảo bằng cách giả mạo giọng nói, hình ảnh qua công nghệ Deepfake
Các đối tượng tội phạm công nghệ cao sử dụng Deepfake AI (phần mềm ghép mặt và giọng nói) giống hệt người quen của nạn nhân để thực hiện hành vi lừa đảo. Cách thức này được dùng để lừa đối với những người đã rất cảnh giác, họ cẩn thận gọi video qua Facebook, Zalo kiểm chứng và… sập bẫy.
Tội phạm công nghệ cao lừa đảo bằng phần mềm giả giọng nói, gương mặt. Ảnh minh họa: Internet
Ngỡ ngàng khi bị lừa dù đã gọi gặp mặt trực tiếp
Chị T.Nhi (Phường 1, TP. Bạc Liêu) đã vô cùng ngỡ ngàng khi biết mình bị lừa vì đã chuyển khoản cho một đối tượng giả mạo anh trai chị. Số tiền chuyển khoản chỉ 5 triệu đồng, nhưng bài học mà chị nhận được thật đắt giá.
Chị Nhi kể, lúc đó là buổi tối, tầm 19 giờ, chị nhận được cuộc gọi video qua Zalo của anh trai, có hình ảnh anh đang ở ngoài đường. Anh nói đang đi mua đồ thì thiếu tiền, mà tài khoản của anh vừa chuyển hết tiền cho người ta lấy hàng. Cuộc gọi chập chờn, sau đó thì ngắt kết nối, kế đó chị nhận được tin anh trai nhắn ở ngoài này sóng yếu. Không nghi ngờ gì nữa, chị Nhi chuyển tiền 5 triệu qua số tài khoản anh trai yêu cầu, là số tài khoản người bán hàng.
Mãi đến ngày hôm sau, thấy anh trai đăng thông báo tài khoản Zalo đã bị hack, chị mới té ngửa vì mình đã trở thành nạn nhân của trò lừa đảo công nghệ cao: ghép mặt và giọng nói.
Khó phân biệt thật giả
Việc những công nghệ tinh vi có thể giả được giọng nói, giả được gương mặt thật sự là một cái bẫy dễ dàng lừa đảo nhiều người, nhất là với những người không rành công nghệ.
Hiện nay, các vụ rò rỉ dữ liệu cá nhân vẫn diễn ra tràn lan, trong đó có thông tin, hình ảnh của các nạn nhân. Ngoài ra, chính bản thân chúng ta cũng vô tình tiếp tay cho bọn tội phạm khi thường xuyên chụp ảnh, quay video phát cả giọng nói của mình chia sẻ lên mạng xã hội (MXH). Đó chính là những “mỏ vàng” dữ liệu cho kẻ xấu thu thập để giả mạo.
Nhằm phục vụ trò lừa đảo, chúng tìm kiếm, thu thập thông tin cá nhân, hình ảnh, video có giọng nói được đăng tải công khai trên các tài khoản MXH… rồi sử dụng công nghệ Deepfake để tạo sẵn những video rất khó phân biệt thật - giả, có hình ảnh, giọng nói của cá nhân đó để phục vụ kịch bản lừa đảo. Những cuộc gọi video như vậy thường có âm thanh không rõ nét, tín hiệu chập chờn giống cuộc gọi trong vùng phủ sóng yếu để nạn nhân khó phân biệt.
Làm thế nào để tránh bẫy Deepfake?
Lợi dụng công nghệ Deepfake là một hình thức lừa đảo vô cùng tinh vi. Vậy làm cách nào để phòng ngừa nếu bản thân gặp trường hợp tương tự? Lời khuyên trước nhất là phải nâng cao cảnh giác khi nhận bất kỳ tin nhắn, cuộc gọi video với nội dung vay, mượn tiền qua các ứng dụng MXH. Đừng tin vào các cuộc gọi qua ứng dụng như Zalo, Messenger, Viber, Telegram… Nếu thật sự là người thân, hãy thực hiện cuộc gọi qua sim điện thoại.
Ngoài ra, theo các chuyên gia bảo mật, để có thể kiểm tra phía bên gọi có sử dụng Deepfake AI để giả mạo trong những cuộc gọi video hay không, hãy yêu cầu họ quay mặt sang bên các góc 90 độ hoặc yêu cầu họ đưa tay trước mặt. Khi đưa tay lên khuôn mặt, sự chồng chéo của bàn tay và khuôn mặt khiến AI bị nhầm lẫn, thao tác này thường được gọi là “tạo mặt nạ” hoặc “xóa nền”.
Bên cạnh đó, nếu các cuộc gọi thoại hay video có chất lượng kém, chập chờn thì chính là một yếu tố để bạn nghi ngờ người gọi cũng như tính xác thực của cuộc gọi.
Hãy lưu giữ cẩn thận thông tin cá nhân của bạn, như số căn cước công dân, địa chỉ nhà riêng, ngày sinh, số điện thoại, tên đệm và thậm chí cả tên của con cái… Đừng trưng bày mọi thông tin của bạn trên MXH, vì những kẻ lừa đảo có thể sử dụng thông tin này để mạo danh bạn khi liên hệ với ngân hàng và những người khác.
Kim Kim
- Kỷ niệm trọng thể 50 năm ngày giải phóng miền Nam, thống nhất đất nước
- Diễn văn của Tổng Bí thư Tô Lâm tại Lễ kỷ niệm 50 năm Ngày giải phóng miền Nam, thống nhất đất nước
- Hội thảo và tuyên dương tác phẩm văn học - nghệ thuật tiêu biểu tỉnh Bạc Liêu giai đoạn 1975 - 2025
- Công bố Quyết định hợp nhất Báo Bạc Liêu và Đài Phát thanh - Truyền hình Bạc Liêu
- Phát động Tháng công nhân - Tháng hành động về an toàn, vệ sinh lao động năm 2025”