18 quốc gia trên thế giới ký kết thoả thuận chung về quản lý AI
AI ngày càng bị lạm dụng là mối quan tâm lớn của các nhà phát triển và nhà lập pháp toàn cầu.
Mười tám quốc gia, bao gồm cả Mỹ và Anh, đã chung tay đưa ra một bộ nguyên tắc nhằm giải quyết những lo ngại dai dẳng về việc AI sẽ nguy hiểm nếu nó rơi vào tay những kẻ độc hại.
Tài liệu dài 20 trang đề cập đến một số biện pháp bảo vệ để đảm bảo sự phát triển AI có trách nhiệm, bao gồm yêu cầu các công ty công nghệ phải “phát triển và triển khai nó theo cách giúp khách hàng và người dùng nói chung được an toàn khỏi bị lạm dụng”. Ngoài Mỹ và Anh, các quốc gia khác đã ký văn bản này bao gồm Đức, Ý, Cộng hòa Séc, Estonia, Ba Lan, Úc, Chile, Israel, Nigeria và Singapore.
Thỏa thuận đề chi tiết đến các cách để bảo vệ AI khỏi bị tin tặc tấn công và bao gồm các khuyến nghị về cách các công ty trước tiên nên tiến hành thử nghiệm bảo mật thích hợp trước khi phát hành mô hình của họ.
Tuy nhiên, theo Reuters, tài liệu này không đề cập đến các vấn đề gây tranh cãi, chẳng hạn như cách thu thập dữ liệu cho các mô hình AI. Đã có nhiều cáo buộc đưa ra về vấn đề này, vì vậy nhiều người hy vọng rằng các cơ quan quản lý và nhà lập pháp sẽ sớm can thiệp để giải quyết tình trạng này một cách triệt để.
Được mô tả là thỏa thuận toàn cầu đầu tiên về an toàn AI, Nguyên tắc Phát triển AI An toàn nhằm mục đích khiến các nhà phát triển AI có trách nhiệm hơn với phần mềm của họ. Tài liệu cũng kêu gọi tất cả các bên liên quan, bao gồm các nhà khoa học dữ liệu, nhà phát triển, nhà quản lý, người ra quyết định và chủ sở hữu rủi ro tuân theo các khuyến nghị để đưa ra “quyết định sáng suốt về thiết kế, phát triển, triển khai và vận hành hệ thống AI của họ”.
Cơ quan An ninh Cơ sở hạ tầng và An ninh mạng Hoa Kỳ (CISA) cho biết đây là một bước đi đúng đắn. Trong một thông báo, giám đốc CISA Jen Easterly nói rằng AI không chỉ nên có "các tính năng thú vị" nhưng lại giảm chi phí, vì điều đó có thể gây ra tác dụng phụ nguy hiểm về lâu dài.
Ngay cả trước khi thỏa thuận này được ký kết, một số quốc gia đã bắt đầu xây dựng các quy tắc về cách các công ty như Google và OpenAI nên tự điều chỉnh việc phát triển AI.
Trước đó, Pháp, Đức và Ý gần đây đã đạt được thỏa thuận về “sự tự điều chỉnh bắt buộc thông qua các quy tắc ứng xử”, thì chính quyền Biden ở Mỹ đã thông qua một sắc lệnh hành pháp nhằm giảm thiểu những rủi ro mà sự phát triển AI không được kiểm soát có thể gây ra cho an ninh quốc gia.
Bài cùng chuyên mục