Hà Nội
23°C / 22-25°C

Chuyên gia chỉ cách nhận diện lừa đảo bằng video và giọng nói của người quen

Thứ sáu, 14:08 31/03/2023 | Đời sống

Video giọng nói và gương mặt của người quen, nhưng nội dung lại hoàn toàn giả mạo chính là chiêu thức mà kẻ gian sử dụng để lừa đảo, chiếm đoạt tài sản qua mạng.

Lừa đảo giống như thật

Nhận được cuộc gọi, nhìn thấy hình ảnh và nghe được giọng nói quen thuộc của người thân qua video call, tuy nhiên nhiều người vẫn bị lừa chuyển tiền , bởi đó là giả mạo, không phải là người thật và được tạo ra bởi công nghệ Deepfake.

Mới đây, chị Nguyễn Thị H. (Hưng Yên) vẫn chưa hết bàng hoàng vì bị mất số tiền 50 triệu đồng tích cóp bấy lâu. Chị nhận được cuộc gọi video call qua mạng xã hội facebook, người gọi trong video là hình ảnh con trai chị, nhìn thấy và nghe đúng giọng nói quen thuộc của con trai nên chị H. đã lập tức tin tưởng và chuyển tiền ngay. Tới khi chuyển xong, chị gọi điện thoại lại cho con trai xác nhận thì mới biết là bị lừa.

Nhận diện lừa đảo bằng video và giọng nói của người quen - Ảnh 2.

Công nghệ Deepfake có thể tạo ra hình ảnh và giọng nói giả mạo giống như thật.

Tương tự, chị V.T.M. (trú tại quận Long Biên, Hà Nội ) nhận được tin nhắn của một người bạn thân đang sống ở nước ngoài, nhờ chuyển 75 triệu đồng vào tài khoản. Cẩn thận thực hiện cuộc gọi video cho bạn để kiểm tra, thì phía bên kia hiện lên hình ảnh và nói đang cần tiền gấp, nên chị M. không ngần ngại chuyển tiền. Vài tiếng sau, trên Facebook cá nhân của người bạn đó đăng thông báo việc bị kẻ gian đánh cắp tài khoản để hỏi vay tiền bạn bè. Chị M. gọi điện lại, thì người bạn xác nhận đã bị kẻ gian chiếm đoạt tài khoản mạng xã hội.

Chị H, chị M chỉ là một trong số nhiều nạn nhân được công an TP. Hà Nội, TP.HCM, Hà Tĩnh và nhiều tỉnh, thành phố khác… mô tả, phát đi cảnh báo về chiêu thức lừa đảo mới với công nghệ Deepfake.

Tại cuộc họp báo thông tin về tình hình, kết quả các mặt công tác quý I/2023 của Bộ Công an tổ chức vào ngày 28/3, ông Triệu Mạnh Tùng, Phó cục trưởng Cục An ninh mạng và Phòng chống tội phạm sử dụng công nghệ cao (Bộ Công an) cho biết, hiện các đối tượng đã sử dụng công nghệ Deepfake ứng dụng AI vào các mục đích lừa đảo, chiếm đoạt tài sản. Cụ thể, công nghệ Deepfake được dùng để giả hình ảnh, giọng nói của một người, rồi tương tác với bị hại. Khi chiếm được lòng tin của bị hại, các đối tượng yêu cầu bị hại thực hiện các giao dịch tài chính để lừa đảo, chiếm đoạt.

Theo ông Nguyễn Văn Cường, Trung tâm an ninh mạng, Công ty Cổ phần BKAV, Deepfake là công nghệ được biết đến nhiều nhất với tác dụng tái tạo lại khuôn mặt của người trong video nhờ sử dụng trí tuệ nhân tạo (AI). Ban đầu, công nghệ này được tạo ra với mục đích giải trí, giúp người dùng lồng khuôn mặt, giọng nói của mình vào các nhân vật yêu thích trên video mà vẫn đảm bảo hoạt động giống như được quay thực tế. Nhưng giới tội phạm đã lợi dụng để thực hiện các vụ lừa đảo, hoặc lan truyền tin thất thiệt trên mạng.

"Rất nhiều vụ lừa đảo ở Việt Nam và trên thế giới sử dụng công nghệ Deepfake. Kẻ xấu thường lợi dụng đối tượng là người già, phụ nữ, những người ít tiếp xúc với thông tin và công nghệ... để giả mạo người thân quen với mục tiêu chiếm đoạt tiền, tài sản", ông Cường nói.

Nhận diện video giả mạo

Theo chuyên gia Nguyễn Văn Cường, dù là gương mặt thật, giọng nói thật nhưng vẫn có những dấu hiệu giả mạo mà người dùng nếu tinh ý sẽ dễ dàng nhận ra. Video Deepfake có các dấu hiệu như chuyển động bị giật, thay đổi ánh sáng từ khung hình này sang khung hình khác, thay đổi tông màu da, chớp mắt một cách kỳ lạ hoặc hoàn toàn không chớp mắt, môi đồng bộ kém với giọng nói...

Do năng lực tính toán của các ứng dụng Deepfake chưa hoàn hảo nên clip do AI tạo nên thường có dung lượng nhỏ, thời gian ngắn, chất lượng âm thanh và hình ảnh không cao. Trong những clip đó, khuôn mặt nhân vật thường khá cứng và ít cảm xúc hơn tự nhiên, hình thể cũng hạn chế di chuyển so với clip thông thường. Vì vậy, nếu để ý kỹ có thể phát hiện ra được.

"Bạn không nên tin vào các clip có thời lượng ngắn, chất lượng clip thấp, nhòe, không rõ, khuôn mặt ít biểu cảm, giọng nói không trơn tru hoặc quá đều đều, không ngắt nghỉ", chuyên gia khuyến cáo.

Để có thể kiểm tra phía bên người gọi có sử dụng Deepfake AI để giả mạo trong những cuộc gọi video hay không, hãy yêu cầu họ quay mặt sang bên các góc 90 độ, thì còn có một phương pháp nhỏ đó là yêu cầu họ đưa tay trước mặt. Khi đưa tay lên khuôn mặt, sự chồng chéo của bàn tay và khuôn mặt khiến AI bị nhầm lẫn, thao tác này thường được gọi là "tạo mặt nạ" hoặc "xóa nền".

Để giữ an toàn cho bản thân trước nguy cơ Deepfake, người dùng tránh để tài khoản của bản thân trở thành mục tiêu cho hacker nhắm đến. Bên cạnh việc sao lưu thường xuyên, người dùng cần sử dụng mật khẩu mạnh và khác nhau cho các tài khoản, dùng phần mềm chống virus để ngăn kết nối bị tấn công. Không ghi nhớ mật khẩu ở các thiết bị điện tử, đổi mật khẩu thường xuyên và cẩn trọng với những đường link lạ.

"Để không thành nạn nhân của lừa đảo với công nghệ Deepfake là phải điều tra kỹ thông tin người đối diện, tốt nhất là nên gọi điện thoại trực tiếp nếu đột nhiên có nhờ vả chuyển tiền hay cung cấp thông tin", ông Nguyễn Văn Cường khuyên.

Bình luận (0)
Xem thêm bình luận
Ý kiến của bạn
Giữ 'hồn' bạc giữa màn sương Đèo Gió ở Thái Nguyên

Giữ 'hồn' bạc giữa màn sương Đèo Gió ở Thái Nguyên

Đời sống - 2 giờ trước

GĐXH - Giữa Đèo Gió quanh năm mù sương, ông Triệu Tiến Liềm ở xã Ngân Sơn, tỉnh Thái Nguyên vẫn lặng lẽ giữ nghề chạm bạc của người Dao Tiền dù mỗi sản phẩm mất cả tháng mới hoàn thiện và thu nhập chẳng đủ mưu sinh.

Cận Tết về xem 'thủ phủ' buôn bán loài vật gắn liền với người nông dân

Cận Tết về xem 'thủ phủ' buôn bán loài vật gắn liền với người nông dân

Đời sống - 4 giờ trước

GĐXH - Cuối tháng Chạp, chợ trâu, bò Nghiên Loan (Thái Nguyên) nhộn nhịp hơn bao giờ hết khi hàng nghìn con gia súc được đưa về giao dịch, tạo nên bức tranh kinh tế – văn hóa đặc sắc giữa vùng cao.

Những hành vi tưởng là lỗi khi tham gia giao thông nhưng không bị cảnh sát phạt, lái xe có thể chưa biết

Những hành vi tưởng là lỗi khi tham gia giao thông nhưng không bị cảnh sát phạt, lái xe có thể chưa biết

Đời sống - 6 giờ trước

GĐXH - Nhiều hành vi khi tham gia giao thông tưởng là lỗi nhưng không bị cảnh sát giao thông xử phạt. Dưới đây là các hành vi cụ thể có thể nhiều người chưa biết.

Từ 15/2, người lao động mắc một trong những bệnh này sẽ được bảo hiểm xã hội chi trả

Từ 15/2, người lao động mắc một trong những bệnh này sẽ được bảo hiểm xã hội chi trả

Đời sống - 9 giờ trước

GĐXH - Từ 15/2/2026, 35 bệnh nghề nghiệp được hưởng bảo hiểm xã hội theo Thông tư 60/2025/TT-BYT.

Những ngày sinh Âm lịch gắn liền với vận giàu sang của phụ nữ

Những ngày sinh Âm lịch gắn liền với vận giàu sang của phụ nữ

Đời sống - 10 giờ trước

GĐXH - Theo quan niệm tử vi Á Đông, những phụ nữ sinh vào các ngày Âm lịch dưới đây được cho là mang phúc khí trời ban, càng sống càng thuận lợi.

52 câu chúc đầy lãng mạn, ý nghĩa dành cho người yêu nhân dịp Valentine 14/2

52 câu chúc đầy lãng mạn, ý nghĩa dành cho người yêu nhân dịp Valentine 14/2

Đời sống - 12 giờ trước

GĐXH - Valentine là ngày lễ tình nhân được diễn ra vào ngày 14/2 hàng năm. Lời chúc ngọt ngào và chân thành là những lời tốt nhất để bày tỏ tình cảm của mình. Một lời chúc Valentine xuất phát từ trái tim bạn chắc chắn sẽ làm cho nửa kia cảm động.

Hậu vận đỏ rực: 3 con giáp càng lớn tuổi càng nhiều nhà đất, tiền lúc nào cũng dư dả

Hậu vận đỏ rực: 3 con giáp càng lớn tuổi càng nhiều nhà đất, tiền lúc nào cũng dư dả

Đời sống - 13 giờ trước

GĐXH - Có những con giáp càng đi qua năm tháng càng tích lũy được khối tài sản đáng nể. Khi tuổi đời tăng lên, họ sở hữu trong tay nhiều nhà cửa, đất đai, tài chính lúc nào cũng rủng rỉnh.

Hà Nội: Người dân 'tay xách nách mang' về quê đón Tết, cửa ngõ Thủ đô ùn tắc

Hà Nội: Người dân 'tay xách nách mang' về quê đón Tết, cửa ngõ Thủ đô ùn tắc

Đời sống - 1 ngày trước

GĐXH - Trong ngày làm việc cuối cùng trước kỳ nghỉ lễ, áp lực giao thông tại các cửa ngõ Hà Nội đã gia tăng đột biến khi dòng người hối hả rời thành phố, trong khi đó tại các tuyến đường nội thành việc di chuyển tương đối ổn định.

Từ 1/3 tới, thay đổi mới về hình thức xác nhận giao dịch Mobile Banking có thể nhiều người chưa biết

Từ 1/3 tới, thay đổi mới về hình thức xác nhận giao dịch Mobile Banking có thể nhiều người chưa biết

Đời sống - 1 ngày trước

GĐXH - Từ 1/3/2026, Thông tư số 77/2025/TT-NHNN chính thức có hiệu lực trong đó có nhiều điểm mới về xác nhận giao dịch ngân hàng.

Vi phạm lỗi này, tài xế có thể bị phạt nặng từ 12 - 70 triệu đồng

Vi phạm lỗi này, tài xế có thể bị phạt nặng từ 12 - 70 triệu đồng

Đời sống - 1 ngày trước

GĐXH - Theo Nghị định 168/2024/NĐ-CP, nhiều hành vi vi phạm giao thông bị phạt mức rất nặng đến 70 triệu đồng. Dưới đây là các thông tin cụ thể.

Top