Cảnh Báo: Chỉ Cần 3 Giây, Kẻ Lừa Đảo Đã Có Thể Giả Dạng Giọng Nói Của Bạn

Một ngân hàng trực tuyến tại Anh đã đưa ra lời cảnh báo về mối nguy hiểm mới, kẻ lừa đảo có thể sử dụng AI để sao chép giọng nói của nạn nhân để thực hiện các cuộc gọi.

Ngân hàng trực tuyến của Anh, Starling Bank, vừa cảnh báo về một mối đe dọa an ninh mới liên quan đến công nghệ trí tuệ nhân tạo (AI) đang được sử dụng để sao chép giọng nói của người dùng. Theo ngân hàng, chỉ với 3 giây âm thanh từ video trên mạng xã hội, kẻ gian có thể tạo ra một bản sao giọng nói rất thuyết phục và sử dụng nó để lừa đảo, yêu cầu bạn bè và người thân của nạn nhân chuyển tiền.

Một cuộc khảo sát do Starling Bank và Mortar Research thực hiện vào tháng 8 đã chỉ ra rằng hơn 1/4 số người được hỏi đã trở thành mục tiêu của những vụ lừa đảo giả giọng bằng AI trong năm qua. Đáng chú ý, 46% số người tham gia khảo sát không hề biết đến sự tồn tại của loại hình lừa đảo này, và 8% thừa nhận rằng họ sẽ chuyển tiền nếu được một người quen yêu cầu, dù có nghi ngờ về tính xác thực của cuộc gọi.

Cảnh Báo: Chỉ Cần 3 Giây, Kẻ Lừa Đảo Đã Có Thể Giả Dạng Giọng Nói Của Bạn

Lisa Grahame, Giám đốc an ninh thông tin của Starling Bank, nhấn mạnh rằng nhiều người thường không nhận thức được rằng việc đăng tải nội dung âm thanh lên mạng có thể làm tăng nguy cơ trở thành nạn nhân của những kẻ lừa đảo. Để phòng ngừa, ngân hàng khuyến nghị khách hàng nên thiết lập một "cụm từ an toàn" với người thân – một cụm từ ngẫu nhiên, dễ nhớ và không liên quan đến mật khẩu – để xác minh danh tính qua điện thoại.

Ngân hàng cũng cảnh báo khách hàng không chia sẻ cụm từ an toàn qua tin nhắn vì có thể bị kẻ gian nhìn thấy. Nếu cần chia sẻ, họ nên xóa tin nhắn ngay sau khi đọc.

Cảnh Báo: Chỉ Cần 3 Giây, Kẻ Lừa Đảo Đã Có Thể Giả Dạng Giọng Nói Của Bạn

Ở Australia, ngân hàng NAB cũng đã nhận diện lừa đảo giả giọng bằng AI là một trong những thủ đoạn nguy hiểm nhất mà người dân cần cảnh giác trong năm 2024. Phó Giáo sư Toby Murray, một chuyên gia về khoa học máy tính và hệ thống thông tin từ Đại học Melbourne, cho biết công nghệ nhân bản giọng nói bằng AI ngày càng tinh vi và khó phân biệt.

Murray cũng lưu ý rằng một khi giọng nói và hình ảnh cá nhân đã được chia sẻ trên mạng, rất khó để ngăn chặn chúng bị sao chép. Ông khuyên người dùng nên thiết lập quyền riêng tư trên các tài khoản mạng xã hội để chỉ những người bạn và người thân được phép xem nội dung họ đăng tải, nhằm giảm thiểu rủi ro bị lợi dụng thông tin cá nhân

Bài liên quan

Bài đọc nhiều nhất

Bài mới trong ngày

Lên đầu trang