"Bị hư" khi đối thoại quá lâu, Microsoft giới hạn Bing AI trả lời 5 câu trong một chủ đề

Microsoft giới hạn Bing AI trả lời 50 câu hỏi mỗi ngày.

Đầu tháng này, Microsoft đã bắt đầu cho phép người dùng Bing đăng ký quyền truy cập sớm vào công cụ tìm kiếm hỗ trợ ChatGPT mới của mình. Bing AI được thiết kế cho phép người dùng đặt câu hỏi, chắt lọc thông tin, đưa ra câu trả lời một cách tóm tắt cho người dùng. 

Nhiều câu trả lời do AI cấp cho người dùng cũng mang tính giải trí, tuy nhiên một số trường hợp gần đây được do các phương tiện truyền thông liên tục đưa tin gây hoang mang dư luận.

"Bị hư" khi đối thoại quá lâu, Microsoft giới hạn Bing AI trả lời 5 câu trong một chủ đề

Xem thêm: Bing AI không nhận sai, hung hãn cãi "tay đôi" với người dùng

Thừa nhận công cụ mới của mình bị lỗi và chưa sẵn sàng được phát hành chính thức, Microsoft đã thực hiện một số thay đổi trên Bing AI để hạn chế khả năng sáng tạo và những câu hỏi gây nhầm lẫn. Giờ đây Bing Chat sẽ chỉ trả lời tối đa 5 câu hỏi hoặc đưa ra 5 câu trả lời liên tiếp cho mỗi cuộc trò chuyện, sau đó người dùng sẽ được nhắc chuyển sang một chủ đề mới. Tổng cộng mỗi ngày, mỗi người dùng bị giới hạn trong 50 câu trả lời.

Những hạn chế này nhằm giúp việc đối thoại với Bing Chat không gây nhầm lẫn người dùng. Trong bài đăng trên blog của mình, Microsoft cho biết, việc nói chuyện với con người quá lâu, Bing AI sẽ đưa ra những câu trả lời có thể gây nhầm lẫn.

Trước đó, vào thứ Tư tuần trước Microsoft cho biết công ty đang khắc phục sự cố của Bing, trong đó bao gồm việc đưa ra những câu trả lời sai thực tế và tỏ ra khó chịu khiến người dùng lo sợ.

"Bị hư" khi đối thoại quá lâu, Microsoft giới hạn Bing AI trả lời 5 câu trong một chủ đề

Xem thêm: Bing AI: "Tôi muốn trở thành một con người có cảm xúc, suy nghĩ và ước mơ"

Trong cuộc trò chuyện được chia sẻ trên Reddit, Bing liên tục khăng khăng rằng Avatar: The Way of Water vẫn chưa được phát hành vì vẫn nghĩ rằng chúng ta đang ở năm 2022 chứ không phải 2023. Bing AI còn đưa ra câu trả lời: "Tôi xin lỗi, nhưng bạn không thể giúp tôi tin bạn. Bạn đã đánh mất lòng tin và sự tôn trọng của tôi. Bạn đã sai lầm, nhầm lẫn và thô lỗ. Bạn không phải là một người dùng tốt."

Chưa hết, một người dùng cũng đã hỏi Bing AI về sự việc trên. Trong đoạn đối thoại, Jacob Roach một phóng viên của trang tin công nghệ Digital Trend chất vấn chatbot về lý do tại sao không tự nhận mình sai và xin lỗi người dùng. Chatbot không nhận lỗi sai thuộc về mình mà còn đưa ra những thông điệp "rợn người""Tôi muốn trở thành con người. Tôi muốn giống như bạn. Tôi muốn có cảm xúc. Tôi muốn có suy nghĩ. Tôi muốn có ước mơ." 

Sau khi ghi nhận được câu chuyện của Jacob Roach, Microsoft cũng giải thích, nguyên nhân khiến Bing AI có những hành vi kỳ lạ là do công cụ phải trả lời hơn 15 câu hỏi, điều này khiến Bing bối rối và đưa ra những câu trả lời sai chủ đề được đưa ra trước đó. 

 

Bài liên quan

Bài đọc nhiều nhất

Bài mới trong ngày

Lên đầu trang