Theo báo cáo từ Starling Bank, chỉ cần một đoạn âm thanh dài 15 giây từ một video trên mạng xã hội, kẻ gian có thể tái tạo giọng nói của bất kỳ ai. Sau khi có bản sao giọng nói, chúng có thể dễ dàng tiếp cận bạn bè và người thân của nạn nhân để thực hiện các cuộc gọi lừa đảo, yêu cầu chuyển tiền bằng giọng nói đã được làm giả.
Cuộc khảo sát gần đây do Starling Bank và Mortar Research thực hiện đã tiết lộ một thực trạng đáng báo động: hơn 25% trong số 3.000 người tham gia cho biết họ đã trở thành mục tiêu của các vụ lừa đảo giả giọng bằng AI trong 12 tháng qua. Đáng chú ý, 46% số người tham gia không hề biết về những hình thức lừa đảo này, và 8% cho biết họ sẽ sẵn lòng chuyển tiền theo yêu cầu từ bạn bè hoặc người thân ngay cả khi nghi ngờ về tính xác thực của cuộc gọi.
Bà Lisa Grahame, Giám đốc phụ trách an ninh thông tin của Starling Bank, nhấn mạnh rằng nhiều người thường xuyên chia sẻ nội dung có chứa âm thanh giọng nói của mình mà không lường trước được những rủi ro mà họ có thể gặp phải. Để bảo vệ bản thân, ngân hàng khuyến nghị khách hàng nên thiết lập một "cụm từ an toàn" với người thân. Đây là một cụm từ ngẫu nhiên, dễ nhớ, khác biệt với các mật khẩu, giúp xác minh danh tính trong các cuộc gọi.
Starling Bank cũng lưu ý rằng việc chia sẻ cụm từ an toàn qua tin nhắn không phải là một lựa chọn an toàn, vì tin nhắn có thể bị kẻ gian theo dõi. Họ khuyến cáo người dùng nên xóa tin nhắn ngay sau khi đọc.
Bên cạnh đó, một nghiên cứu gần đây của Phó Giáo sư Toby Murray tại Đại học Melbourne đã chỉ ra rằng công nghệ nhân bản giọng nói bằng AI ngày càng trở nên tinh vi, khó phân biệt. Theo ông, việc chia sẻ giọng nói và video cá nhân trên mạng xã hội khiến người dùng không thể kiểm soát việc sao chép giọng nói của mình. Tuy nhiên, người dùng có thể thiết lập quyền riêng tư cho tài khoản mạng xã hội của mình để chỉ bạn bè và người thân mới có thể tiếp cận nội dung đăng tải.
Trước tình hình này, người dân cần phải nâng cao cảnh giác và thông minh hơn trong việc chia sẻ thông tin cá nhân, nhằm bảo vệ bản thân khỏi những nguy cơ lừa đảo từ công nghệ AI.