Những giả thuyết này được đưa ra trùng khớp với thông báo phát triển một mô hình GPT-5 cực kỳ mạnh mẽ trước khi Sam Altman bị sa thải.
Sau gần một tuần kể từ khi hội đồng quản trị OpenAI đưa ra quyết định sa thải và phục hồi chức danh CEO cho Sam Altman, thì cho đến nay công ty vẫn chưa đưa ra bất kỳ lời giải thích nào về hành động sa thải bất ngờ của mình.
Một cuộc điều tra về sự việc trên đã đươc diễn ra âm thầm và quyết định sa thải của OpenAI đã dần được hé lộ. Cụ thể, trước khi Sam Altman bị sa thải, một số nhà nghiên cứu của OpenAI đã viết thư cho hội đồng quản trị cảnh báo về một dự án trí tuệ nhân tạo khác có thể gây hại cho nhân loại.
Xem thêm: Lý do gì buộc OpenAI sa thải CEO Sam Altman?
Dự án được cho là 'Q*' hoặc Q-star và OpenAI tin rằng Q* có thể là bước đột phá trong nỗ lực tạo ra trí tuệ nhân tạo tổng hợp (AGI) của công ty - thứ mà công ty định nghĩa là hệ thống tự trị vượt qua con người trong hầu hết các nhiệm vụ có hiệu quả kinh tế.
Với nguồn tài nguyên gần như vô hạn, mô hình AGI mới có thể giải quyết một số vấn đề toán học phổ thông, việc vượt qua chúng khiến các nhà nghiên cứu của OpenAI rất lạc quan về tương lai của Q*.
Hiện tại, AI chưa thể giải các bài toán một cách chính xác 100% và đây cũng là lợi thế mà AGI có thể phát huy. Các nhà nghiên cứu tin rằng khi giải các bài toán, chỉ có một câu trả lời đúng và nếu AI có thể vượt qua trở ngại này thì đó được coi là một cột mốc lớn. Một khi AI có thể giải quyết các vấn đề toán học một cách nhất quán, nó có thể đưa ra các quyết định giống với trí thông minh của con người đồng thời thực hiện nghiên cứu khoa học.
Xem thêm: Sam Altman chính thức trở lại vị trí CEO OpenAI sau 4 ngày bị sa thải
Bức thư do các nhà nghiên cứu OpenAI viết nói về những mối nguy hiểm mà AI gây ra cho nhân loại, nhưng chi tiết về mối hiểm hoạ mà công nghệ này gây ra vẫn chưa được nêu rõ. Đã có những cuộc thảo luận về cách AI ảnh hưởng đến sự hủy diệt của loài người, thậm chí các phương tiện truyền thông đã đưa tin trước đây mô tả những mối nguy hiểm đó khi con người đang lạm dụng công nghệ này.
Với tất cả những biến cố mà OpenAI, Sam Altman và vô số người khác đã trải qua trong vài ngày qua, có vẻ như tất cả họ phải sớm nghỉ ngơi và đưa ra những câu trả lời cũng như giải thích về cách đưa mô hình mới này phát triển mà không quan tâm đến những rủi ro nêu trên.