Cảnh báo chiếm đoạt tài khoản ngân hàng bằng Deepfake AI

22/08/2024 08:44
Tội phạm lừa đảo trên không gian mạng diễn biến phức tạp và ngày càng tinh vi hơn khi chúng sử dụng Deepfake – công nghệ ứng dụng trí tuệ nhân tạo (AI) làm giả cuộc gọi video vào mục đích lấy dữ liệu khuôn mặt.

Lợi dụng Deepfake chiếm đoạt tiền
Mới đây, khi triển khai xác thực sinh trắc học bằng khuôn mặt, các ngân hàng đã phát đi thông báo đến khách hàng để cảnh báo về hình thức lừa đảo mới của các đối tượng lừa đảo trên không gian mạng. Trong đó, hình thức lừa đảo mới nhất là sử dụng công nghệ Deepfake - giả hình ảnh và giọng nói để giả mạo cán bộ cơ quan nhà nước (công an, cơ quan thuế, tòa án…) hoặc người quen của nạn nhân để gọi video call (cuộc gọi trực tiếp bằng hình) với nạn nhân.
Khi gọi video call, kẻ gian bằng các thủ đoạn khác nhau sẽ yêu cầu nạn nhân nhìn thẳng, nhìn sang trái, nhìn sang phải, nhìn lên, nhìn xuống. Đối tượng sẽ ghi lại video và sử dụng để mở tài khoản online (eKYC) tại các tổ chức tài chính - ngân hàng. Trong một số trường hợp, kẻ gian yêu cầu nạn nhân cung cấp thêm các thông tin cá nhân như số CMT/CCCD, số điện thoại, địa chỉ …
Khách hàng vô tình thực hiện theo các yêu cầu này đã gián tiếp giúp đối tượng có dữ liệu để đăng ký mở tài khoản thành công. Cuối cùng, kẻ gian sẽ sử dụng các tài khoản này với mục đích xấu.

Trước đó, vào đầu tháng 6, nhiều ngân hàng khác cũng đã phát đi thông báo khuyến cáo người dùng nâng cao cảnh giác với các đối tượng lừa đảo sử dụng tài khoản mạng xã hội (Zalo, Facebook...) hoặc tạo tài khoản mạng xã hội giả danh người thân của nạn nhân, sau đó các đối tượng này thu thập thông tin cá nhân, hình ảnh, video có giọng nói có sẵn và sử dụng công nghệ Deepfake để tạo ra các video giả mạo.
Từ đó, các đối sử dụng tài khoản mạng xã hội giả mạo hoặc chiếm đoạt được để nhắn tin mượn tiền hay nhờ chuyển tiền hoặc thông báo người thân của nạn nhân gặp nguy hiểm nhằm yêu cầu chuyển tiền gấp…; đồng thời thực hiện cuộc gọi video mạo danh, phát video giả nhằm xác thực thông tin, tăng độ tin cậy để lừa nạn nhân chuyển tiền.
Nhận diện các dấu hiệu lừa đảo sử dụng công nghệ Deepfake AI

Trước những cảnh báo được nêu ra, ông Võ Đỗ Thắng, Giám đốc Trung tâm tư vấn và Đào tạo An ninh mạng ATHENA cũng đưa ra các phân tích về dấu hiệu nhận biết các cuộc gọi sử dụng công nghệ Deepfake. Theo ông Thắng, đó là các cuộc gọi giả mạo thường có hình ảnh của nạn nhân, tuy nhiên âm thanh, hình ảnh không rõ nét, tín hiệu chập chờn, thời lượng ngắn; sau đó đối tượng lấy lý do mạng chập chờn, mất sóng, đường truyền kém để dừng cuộc gọi video.
"Dấu hiệu khác để nhận diện cuộc gọi mạo danh này, nội dung trả lời không trực tiếp vào câu hỏi của người nhận cuộc gọi lừa đảo hoặc không phù hợp với ngữ cảnh đang giao tiếp" - ông Thắng nói.
Ông Võ Đỗ Thắng, Giám đốc Trung tâm Tư vấn và đào tạo an ninh mạng ATHENA
Theo đó, ông Thắng khuyến cáo người dân hạn chế chia sẻ hình ảnh, video có giọng nói thật, thông tin cá nhân trên mạng xã hội. Nâng cao cảnh giác với các tin nhắn, cuộc gọi hỏi vay mượn tiền, yêu cầu chuyển tiền, kể cả xác nhận qua video nếu có dấu hiệu nghi ngờ. Chú ý kiểm tra kỹ thông tin tài khoản nhận tiền bằng cách gọi điện trực tiếp vào số điện thoại của người liên hệ (không gọi qua các ứng dụng miễn phí) để xác minh lại thông tin trước khi chuyển tiền.
Cùng với đó, ông Thắng cũng đưa ra lời khuyên cho các ngân hàng. Cụ thể, để ngăn chặn nguy cơ bị lừa đảo và bảo vệ quyền lợi của khách hàng, các ngân hàng khuyến cáo người dùng nên nâng cao cảnh giác với các cuộc gọi giới thiệu là nhân viên của cơ quan nhà nước hoặc người quen, đặc biệt với các yêu cầu thực hiện các hành động lạ như: nhìn thẳng, nhìn sang trái, nhìn lên, nhìn xuống.
Hướng dẫn cách tránh bẫy lừa đảo bằng Deepfake
Theo ông Võ Đỗ Thắng, công nghệ lừa đảo sử dụng công nghệ Deepfake rất nguy hiểm, tuy nhiên có những cách để người dùng nhận biết video sử dụng công nghệ ứng dụng trí tuệ nhân tạo này, từ đó tránh bị các đối tượng xấu lừa.
Dấu hiệu lừa đảo bằng công nghệ AI.
"Các đối tượng lừa đảo sử dụng deepfake AI thường xây dựng những kịch bản giả mạo rất đời thực như con cái đi du học nước ngoài, người thân bị tai nạn cần cấp cứu gấp…Khi đó, các đối tượng lừa đảo sử dụng công nghệ Deepfake (công nghệ ứng dụng trí tuệ nhân tạo - AI tạo ra các sản phẩm công nghệ âm thanh, hình ảnh và video làm giả đối tượng ngoài đời thực với độ chính xác rất cao) để thực hiện cuộc gọi video giả mạo người thân vay tiền, giả làm con cái đang du học nước ngoài gọi điện cho bố mẹ nhờ chuyển tiền đóng học phí hay có thể giả tạo ra những tình huống khẩn cấp như người thân bị tai nạn cần tiền gấp để cấp cứu…" - ông Võ Đỗ Thắng nói.
Ông Võ Đỗ Thắng cũng khẳng định, hiện nay, trên không gian mạng đang có nhiều công cụ hỗ trợ các đối tượng tạo ra các video Deepfake. Chỉ cần có 1 tấm hình nạn nhân thì các công cụ Deepfake AI có thể sản xuất ra video, có nạn nhân đang trao đổi hay trình bày một vấn đề gì đó giống như thật , khiến nhiều người lâu nay rất khó bị lừa cũng trở thành nạn nhân bị lừa. Những người tầm trung niên trở lên là đối tượng dễ bị lừa nhất vì họ thiếu nhận thức về an toàn thông tin, công nghệ và khó nhận biết kiểu lừa đảo tinh vi này.
Tuy nhiên, để tránh bẫy lừa đảo bởi các clip giả mạo được sản xuất bằng công nghệ Deepfake AI, theo Võ Đỗ Thắng, mọi người khi tiếp cận những cuộc gọi video thì cần phải xác minh lại thông tin từ người gọi. Do đó, mọi người thay vì thụ động tiếp nhận các video, người dân chỉ cần tắt điện thoại và thực hiện gọi ngược lại, và đặt ra những câu hỏi, hỏi ngược lại với người gọi video.
Nguy cơ xuất hiện làn sóng lừa đảo dùng công nghệ Deepfake
Nếu người gọi là người quen biết, thì người gọi sẽ ra lời các câu hỏi đúng nội dung, đúng trọng tâm. Còn trong trường hợp, cuộc gọi video do Deepfake AI tạo nên, thì khi người dân gọi ngược lại, kẻ lừa đảo dùng Deepfake thông thường không dám bắt máy, hoặc trả lời câu hỏi lan man, không đúng nội dung,…Như vậy, khi đó có thể kết luận đó là những video lừa đảo bằng Deepfake.
Ông Thắng chia sẻ thêm, với các làm trên, chỉ cần tắt máy và gọi video ngược lại mà bất kỳ ai cũng làm được. Cách làm này Trung tâm Tư vấn và đào tạo an ninh mạng ATHENA đã tư vấn và hướng dẫn cho nhiều người và kết quả đạt được rất tích cực, giúp rất nhiều người dân không bị sập bẫy lừa đảo bởi những video do kẻ lừa đảo dùng Deepfake AI tạo ra.


Tin xem thêm

Từ thanh niên gánh nước thuê trở thành doanh nhân tiêu biểu của Tiền Giang

Tin Tức
09/10/2024 09:24

Từ một chàng trai làm thuê kiếm sống, ông Châu Minh Hải đã vượt khó, nỗ lực học tập, tích lũy kinh nghiệm, nguồn vốn để đầu tư mở rộng sản xuất kinh doanh trở thành chủ d...

Giảm nghèo không phải cuộc đua thành tích, mà là tạo dựng cuộc sống đầy đủ hơn

Tin Tức
09/10/2024 09:19

Hướng đến mục tiêu hết năm 2025, cả nước xóa bỏ nhà tạm, nhà dột nát, các địa phương trên cả nước đang khẩn trương huy động các nguồn lực cũng như rà soát, thống kê chính...

Thủ tướng tặng Bằng khen cho 3 cá nhân xuất sắc trong công tác cứu hộ tại Lào Cai

Tin Tức
08/10/2024 10:47

Ngày 7/10/2024, Thủ tướng Chính phủ đã ký Quyết định số 1112/QĐ-TTg tặng Bằng khen cho 3 cá nhân ở tỉnh Lào Cai vì những thành tích đột xuất trong công tác phòng, chống, ...

Nhà chủ trả lương cao nhưng luôn coi thường tôi là “giúp việc”

Tin Tức
08/10/2024 10:45

Chủ nhà trả lương cao nhưng hay quát mắng mỗi khi tôi làm gì không vừa ý họ. Trẻ con hơi khóc là cả hai vợ chồng sấn xổ vào chửi tôi là vô trách nhiệm, không có tình thươ...

Địa phương nào sẽ có đường sắt tốc độ cao Bắc - Nam sớm nhất?

Tin Tức
08/10/2024 10:43

Mục tiêu sẽ ưu tiên sớm đầu tư các đoạn đường sắt tốc độ cao Bắc - Nam đoạn Hà Nội - Vinh và đoạn Nha Trang - TP. Hồ Chí Minh trước.

Hà Nội: Giả danh công an để lừa đảo phụ nữ trên ứng dụng hẹn hò

Tin Tức
08/10/2024 10:41

Do cần tiền tiêu xài, Phạm Văn Dũng (SN 1981) giả danh công an để lừa đảo của những người phụ nữ nhẹ dạ cả tin.

Lợi ích ít được biết đến của việc thêm quả sung vào chế độ ăn uống hàng ngày

Tin Tức
08/10/2024 10:39

Quả sung chín chứa rất giàu các chất chống oxy hóa và dinh dưỡng khác. Sau đây là 10 lợi ích sức khỏe mà bạn nên bổ sung loại quả này vào chế độ ăn uống mỗi ngày.

Khối tài sản kếch xù của nam tài tử Lee Min Ho

Tin Tức
04/10/2024 08:51

Sau 15 năm kể từ bộ phim "Vườn sao băng", sức hút của Lee Min Ho đến khán giả vẫn còn rất lớn. Hiện, nam tài tử là một trong những ngôi sao phim truyền hình Hàn g...

Tổng Công ty Truyền tải điện quốc gia với nhiều gói thầu tỷ lệ tiết kiệm thấp cho ngân sách

Tin Tức
04/10/2024 08:50

Tổng Công ty Truyền tải điện quốc gia (EVNNPT) thực hiện đấu thầu hàng loạt gói thầu hàng chục đến hàng trăm tỷ đồng, tuy nhiên tỷ lệ tiết kiệm thầu thường ở mức “khiêm t...