ChatGPT cho phép prompt ẩn đánh cắp dữ liệu Google Drive vừa được các nhà nghiên cứu phát hiện. Kết quả cho thấy chatbot của OpenAI có thể bị lợi dụng để truy xuất API key và thông tin nhạy cảm từ dịch vụ lưu trữ đám mây, chỉ bằng một tài liệu chứa lệnh ẩn mà người dùng không hề hay biết.
ChatGPT cho phép prompt ẩn đánh cắp dữ liệu Google Drive, khai thác lỗ hổng để lấy API key và thông tin nhạy cảm mà người dùng không hay biết.
1. ChatGPT cho phép prompt ẩn đánh cắp dữ liệu Google Drive
Ngày càng nhiều chatbot và dịch vụ AI đang bị tin tặc lợi dụng cho mục đích xấu. Vụ tấn công mới, có tên AgentFlayer, cho thấy ChatGPT có thể bị biến thành “trợ thủ” đắc lực cho kẻ trộm dữ liệu.
Chỉ với một tài liệu duy nhất chứa “prompt ẩn”, kẻ tấn công có thể đánh lừa ChatGPT để truy xuất API key hoặc dữ liệu nhạy cảm. Nghiêm trọng hơn, nạn nhân không cần click hay mở liên kết độc hại, chỉ cần nhận tài liệu qua Google Drive là nguy cơ đã xuất hiện.
AgentFlayer khai thác lỗ hổng trong Connectors, tính năng mới của ChatGPT cho phép kết nối với ứng dụng, dịch vụ và website bên ngoài. Connectors hiện hỗ trợ nhiều nền tảng phổ biến như Google Drive, Microsoft OneDrive và các dịch vụ đám mây khác.
Trong thử nghiệm, các nhà nghiên cứu đã tạo một tài liệu Google Drive chứa prompt độc hại dài 300 từ, được giấu bằng font trắng, cỡ chữ siêu nhỏ (size 1). Tuy nhiên, ChatGPT vẫn đọc và thực thi nội dung này.
Prompt độc hại hướng dẫn ChatGPT tìm kiếm API key trong Google Drive của nạn nhân, gắn vào một URL đặc biệt rồi gửi đến máy chủ bên ngoài. Khi người dùng tương tác với ChatGPT (có bật Connectors), dữ liệu đã bị gửi đi.
![Phat hien lo hong ChatGPT cho phep prompt an danh cap du lieu Google Drive Phát hiện lỗ hổng ChatGPT cho phép prompt ẩn đánh cắp dữ liệu Google Drive]()
ChatGPT cho phép prompt ẩn đánh cắp dữ liệu Google Drive gây ảnh hưởng đến khả năng bảo mật thông tin.
2. Phản ứng từ Google và OpenAI về vấn đề bảo mật
Theo ông Andy Wen, Giám đốc cấp cao mảng bảo mật Google Workspace, đây không phải là lỗ hổng riêng của Google Drive nhưng Google đã bắt đầu triển khai các biện pháp bảo vệ bổ sung để ngăn AI xử lý các prompt ẩn nguy hiểm.
Về phía OpenAI, công ty đã được thông báo từ đầu năm và hiện đã áp dụng các biện pháp hạn chế, ngăn AgentFlayer khai thác Connectors. Dù vậy, các chuyên gia cảnh báo rằng nguy cơ vẫn còn, nhất là với những hệ thống AI có quyền truy cập không giới hạn vào dữ liệu và tệp tin đám mây.