Một cố vấn cho nhóm trí tuệ nhân tạo (AI) của Thủ tướng Anh tiết lộ rằng con người có khoảng hai năm để kiểm soát và điều chỉnh AI trước khi trở nên quá mạnh.
Trong một cuộc phỏng vấn với truyền thông địa phương ở Vương quốc Anh, Matt Clifford, người cũng là chủ tịch của Cơ quan Sáng chế và Nghiên cứu Tiên tiến của Vương quốc Anh (ARIA), nhấn mạnh rằng các hệ thống ngày nay đang trở nên "có khả năng cải thiện với tốc độ ngày càng nhanh.
Xem thêm: Intel và Microsoft hợp tác đưa AI lên PC Windows bằng chip Meteor Lake
Ông tiếp tục nói rằng nếu các quan chức không xem xét an ninh và quy định ngay bây giờ, các hệ thống này sẽ "rất mạnh mẽ" trong vòng hai năm.
“Chúng tôi có hai năm để xây dựng một khuôn khổ giúp cho việc kiểm soát và điều chỉnh các mô hình lớn này khả thi hơn nhiều so với hiện tại,” Clifford trả lời trong một bài phát biểu.
Clifford cảnh báo rằng có "rất nhiều loại rủi ro khác nhau" liên quan đến AI, cả trong ngắn hạn và dài hạn, mà ông cho là "đặc biệt nguy hiểm".
Cuộc phỏng vấn này diễn ra sau một bức thư ngỏ do Trung tâm An toàn Trí tuệ nhân tạo xuất bản gần đây, được ký bởi 350 chuyên gia trí tuệ nhân tạo, bao gồm cả CEO OpenAI Sam Altman, nói rằng AI nên được coi là mối đe dọa hiện hữu ngang với vũ khí hạt nhân và đại dịch.
Cố vấn của nhóm trí tuệ nhân tạo cũng nói rằng các mối đe dọa do AI gây ra có thể "rất nguy hiểm" và có thể "huỷ diệt loài người trong hai năm tới."
Xem thêm: EU yêu cầu các nội dung do AI tạo ra phải được dán nhãn
Theo Clifford, trọng tâm chính của các nhà quản lý và nhà phát triển nên hiểu cách kiểm soát các mô hình này và sau đó thực hiện các quy định trên quy mô toàn cầu.
Clifford nhấn mạnh rằng nhiều nhà lãnh đạo tổ chức xây dựng AI cũng đồng ý rằng các mô hình AI mạnh phải trải qua quá trình kiểm toán và đánh giá trước khi được triển khai.
Ngày nay, các cơ quan quản lý trên khắp thế giới đang cố gắng hiểu công nghệ này và hậu quả của nó, đồng thời cố gắng tạo ra các quy định bảo vệ người dùng mà vẫn cho phép đổi mới.
Cảnh báo được đưa ra sau khi, EU đề xuất bắt buộc tất cả nội dung do AI tạo ra phải được gắn nhãn là nội dung AI để ngăn chặn thông tin sai lệch, cũng như để người dùng có thể dễ dàng nhận biết các sản phẩm này không phải con người tạo ra.