Trung Quốc đã công bố các yêu cầu bảo mật được đề xuất đối với các công ty cung cấp dịch vụ được cung cấp bởi trí tuệ nhân tạo (AI), bao gồm danh sách đen các nguồn không được sử dụng để đào tạo các mô hình AI.
Theo cơ quan Trung Quốc, mọi nội dung được sử dụng để đào tạo các mô hình AI công khai trước công chúng sẽ phải được đánh giá về mặt bảo mật và những nội dung bị phát hiện bao gồm “hơn 5% thông tin bất hợp pháp và có hại” sẽ bị đưa vào danh sách đen.
Những thông tin có nội dung bao gồm “ủng hộ khủng bố” hoặc bạo lực, cũng như "làm tổn hại hình ảnh đất nước” và “gây xáo trộn đoàn kết dân tộc và ổn định xã hội." Các quy định này cũng nêu rõ thông tin được kiểm duyệt trên mạng Internet Trung Quốc không được phép sử dụng để đào tạo người mẫu.
Việc xuất bản điều khoản diễn ra chỉ hơn một tháng sau khi các cơ quan quản lý cho phép một số công ty công nghệ Trung Quốc, bao gồm cả gã khổng lồ công cụ tìm kiếm Baidu, ra mắt công chúng các chatbot hỗ trợ AI của riêng mình.
Theo TechTimes, các điều khoản vào tháng 7 của Trung Quốc có thể sẽ ảnh hưởng lớn đến sự thành công của ngành AI. Theo báo cáo, các chuyên gia nói rằng những dự thảo đó nằm trong số những biện pháp "nghiêm ngặt nhất" trên thế giới. Khó khăn trong việc kiểm duyệt đầu ra AI tổng quát là một thách thức đối với các nhà phát triển AI mà ngay cả các cơ quan quản lý Trung Quốc cũng thấy cần phải nới lỏng các quy định nghiêm ngặt của nó.
Để đáp lại, cơ quan quản lý đã dần dần đưa ra các quy tắc lỏng lẻo đối với việc kiểm duyệt AI. Dự thảo yêu cầu bảo mật được công bố hôm 11.10 của Trung Quốc yêu cầu các tổ chức đào tạo AI này phải được sự đồng ý của những cá nhân có thông tin cá nhân, bao gồm cả dữ liệu sinh trắc học, được sử dụng cho mục đích đào tạo. Họ cũng đưa ra những hướng dẫn chi tiết về cách tránh vi phạm sở hữu trí tuệ.
Hiện tại những quy định về AI vẫn còn khá mơ hồ và gây tranh cãi trên toàn cầu, tuy nhiên các điều khoản gần đây của Trung Quốc được cho là "những quy định sớm nhất và chi tiết nhất thế giới về quản lý trí tuệ nhân tạo".