Tại buổi họp báo thường kỳ Bộ Thông tin và Truyền thông (TT&TT) ngày 5/5, Phó Cục trưởng Cục An toàn thông tin (Bộ TT&TT) Trần Quang Hưng cho biết, thời gian gần đây xuất hiện hình thức lừa đảo trực tuyến mới là cuộc gọi video bằng công nghệ Deepfake.
Cụ thể, các đối tượng sử dụng công nghệ trí tuệ nhân tạo (AI) để tạo ra những video, hình ảnh giả, sao chép chân dung để tạo ra các đoạn video giả người thân, bạn bè nhằm thực hiện các cuộc gọi lừa đảo trực tuyến. Deepfake đang là một mối đe dọa đối với sự trung thực và tin cậy của video và hình ảnh. Nó có thể được sử dụng không chỉ để lừa đảo trực tuyến mà còn sử dụng cho các mục đích khác như tấn công chính trị, tạo ra những tin tức giả mạo hoặc phá hoại danh tiếng của người khác.
Theo Hãng bảo mật Kaspersky, Deepfake là một từ ghép của "deep" trong "deep learning" (học sâu) và "fake" (giả mạo). Deep learning là dùng phương pháp AI tiên tiến ứng dụng nhiều thuật toán nhằm tổng hợp dần các tính năng cao cấp từ dữ liệu đầu vào. Từ đó nó có khả năng tổng hợp, học hỏi từ những dữ liệu mà người dùng đưa vào như khuôn mặt con người, chuyển động vật lý và giọng nói…
Từ các dữ liệu này, AI sau đó sẽ xử lý để tạo ra video Deepfake thông qua mạng GAN (Generative Adversarial Network - dịch nôm na: mạng sinh ra dữ liệu mới sau quá trình học). Mạng lưới này liên tục kiểm tra các hình ảnh, âm thanh, chuyển động… được tạo ra theo chương trình thiết lập từ trước. Từ đó các video Deepfake cuối cùng sẽ cho ra hình ảnh ngày càng thuyết phục, sống động và thật hơn.
Theo đại diện Bộ TT&TT, phần lớn hình thức lừa đảo trực tuyến này nhắm tới việc lừa đảo tài chính. Đối với các cuộc gọi deepfake như hiện nay thì bằng mắt thường vẫn có thể có một số các dấu hiệu để nhận biết như thời gian gọi thường rất ngắn chỉ vài giây.
Khuôn mặt của họ thiếu tính cảm xúc và khá "trơ" khi nói, hoặc tư thế của họ trông lúng túng, không tự nhiên, hoặc là hướng đầu và cơ thể của họ trong video không nhất quán với nhau…
Ngoài ra, cũng có thể thấy màu da của nhân vật trong video bất thường, ánh sáng kỳ lạ và bóng đổ không đúng vị trí. Điều này, có thể khiến cho video trông rất giả tạo và không tự nhiên. Âm thanh cũng là một vấn đề có thể xảy ra trong video. Âm thanh sẽ không đồng nhất với hình ảnh, có nhiều tiếng ồn bị lạc vào clip hoặc clip không có âm thanh.
Có thể xảy ra tình huống mà tài khoản chuyển tiền không phải của người đang thực hiện cuộc gọi và thường kẻ gian sẽ ngắt giữa chừng, bảo là mất sóng, sóng yếu... Tóm lại, các yếu tố kỳ lạ như trên là báo hiệu đỏ của deepfake. Do đó, Bộ TT&TT khuyến cáo người dân nên luôn cảnh giác và tuyệt đối bình tĩnh.
Không chỉ Việt Nam mà nhiều nước trên thế giới, các công ty công nghệ lớn đang tìm giải pháp kỹ thuật để xử lý các vụ lừa đảo Deepfake. Việc ngăn ngừa chiêu trò lừa đảo trên không gian mạng là một cuộc chiến trường kỳ. Tuy nhiên, do bản chất của những vụ lừa đảo trực tuyến phần lớn liên quan đến lừa đảo tài chính nên để lấy được tiền, kẻ lừa đảo đều cần đến các tài khoản ngân hàng. Những đối tượng này sẵn sàng bỏ tiền ra mua các tài khoản ngân hàng không chính chủ. Do đó, việc cần làm là ngăn chặn các tài khoản ngân hàng không chính chủ, đồng bộ thông tin tài khoản ngân hàng với cơ sở dữ liệu quốc gia về dân cư để kiểm soát, truy vết các vụ lừa đảo.
Công nghệ sẽ liên tục thay đổi, chiêu trò lừa đảo sẽ luôn biến hóa khôn lường và là công cụ để kẻ lừa đảo sử dụng. Việc phòng, chống những vụ lừa đảo trên không gian mạng không đơn giản là vấn đề kỹ thuật mà cần có sự phối hợp đồng bộ về công nghệ, pháp lý và cơ chế. Bên cạnh đó, người dùng cần chủ động nâng cao cảnh giác, bảo vệ thông tin cá nhân, tránh bị sập bẫy lừa đảo.