Các công ty như TikTok, Google, Microsoft và Meta Platforms dự kiến phải đưa ra các biện pháp bảo vệ, giải quyết nạn thông tin giả do AI tạo ra vào tháng 7 năm 2023.
EU yêu cầu các công ty triển khai các công cụ AI khả năng cao tạo ra các thông tin sai lệch, nên "dán nhãn" nội dung như một phần chống lại thông tin giả mạo, cũng như để người dùng có thể dễ dàng nhận biết các sản phẩm này không phải con người tạo ra.
Được giới thiệu vào cuối năm ngoái, ChatGPT do Microsoft hậu thuẫn đã trở thành ứng dụng phiển biến nhất thời đại và thúc đẩy sự cạnh tranh giữa các công ty công nghệ để đưa các sản phẩm sáng tạo AI ra thị trường.
Tuy nhiên, ngày càng có nhiều lo ngại về việc lạm dụng công nghệ này và khả năng những kẻ xấu hoặc thậm chí cả chính phủ có thể sử dụng nó để tạo ra nhiều thông tin sai lệch hơn trước đây.
Jourova nói trong một cuộc họp báo: “Những người tích hợp trí tuệ nhân tạo AI vào các dịch vụ của họ như Bingchat cho Microsoft, Bard cho Google nên xây dựng các biện pháp bảo vệ cần thiết để các dịch vụ này không thể bị kẻ xấu sử dụng để tạo ra thông tin sai lệch."
Theo Jourova, các công ty như TikTok, Google, Microsoft và Meta Platforms đã đăng ký với Bộ quy tắc thực hành của EU để giải quyết thông tin sai lệch dự kiến sẽ báo cáo về các biện pháp bảo vệ được thực hiện để giải quyết vấn đề này vào tháng 7 năm 2023.
Bà cũng cảnh báo Twitter, nền tảng đã tự rút lui khỏi thoả thuận tự nguyện về cam kết chống lại những nội dung sai lệch được EU đề xuất vào tuần trước, nên chuẩn sẵn sàng cho sự giám sát chặt chẽ hơn của Bộ cơ quan quản lý.
Jourova cho biết: “Bằng cách thoát khỏi Bộ quy tắc, Twitter đã thu hút rất nhiều sự chú ý và các hành động cũng như việc tuân thủ luật pháp của EU sẽ phải chịu sự giám sát nghiêm ngặt và khẩn cấp”