"Bị hư" khi đối thoại quá lâu, Microsoft giới hạn Bing AI trả lời 5 câu trong một chủ đề

Microsoft giới hạn Bing AI trả lời 50 câu hỏi mỗi ngày.

Đầu tháng này, Microsoft đã bắt đầu cho phép người dùng Bing đăng ký quyền truy cập sớm vào công cụ tìm kiếm hỗ trợ ChatGPT mới của mình. Bing AI được thiết kế cho phép người dùng đặt câu hỏi, chắt lọc thông tin, đưa ra câu trả lời một cách tóm tắt cho người dùng. 

Nhiều câu trả lời do AI cấp cho người dùng cũng mang tính giải trí, tuy nhiên một số trường hợp gần đây được do các phương tiện truyền thông liên tục đưa tin gây hoang mang dư luận.

"Bị hư" khi đối thoại quá lâu, Microsoft giới hạn Bing AI trả lời 5 câu trong một chủ đề

Xem thêm: Bing AI không nhận sai, hung hãn cãi "tay đôi" với người dùng

Thừa nhận công cụ mới của mình bị lỗi và chưa sẵn sàng được phát hành chính thức, Microsoft đã thực hiện một số thay đổi trên Bing AI để hạn chế khả năng sáng tạo và những câu hỏi gây nhầm lẫn. Giờ đây Bing Chat sẽ chỉ trả lời tối đa 5 câu hỏi hoặc đưa ra 5 câu trả lời liên tiếp cho mỗi cuộc trò chuyện, sau đó người dùng sẽ được nhắc chuyển sang một chủ đề mới. Tổng cộng mỗi ngày, mỗi người dùng bị giới hạn trong 50 câu trả lời.

Những hạn chế này nhằm giúp việc đối thoại với Bing Chat không gây nhầm lẫn người dùng. Trong bài đăng trên blog của mình, Microsoft cho biết, việc nói chuyện với con người quá lâu, Bing AI sẽ đưa ra những câu trả lời có thể gây nhầm lẫn.

Trước đó, vào thứ Tư tuần trước Microsoft cho biết công ty đang khắc phục sự cố của Bing, trong đó bao gồm việc đưa ra những câu trả lời sai thực tế và tỏ ra khó chịu khiến người dùng lo sợ.

"Bị hư" khi đối thoại quá lâu, Microsoft giới hạn Bing AI trả lời 5 câu trong một chủ đề

Xem thêm: Bing AI: "Tôi muốn trở thành một con người có cảm xúc, suy nghĩ và ước mơ"

Trong cuộc trò chuyện được chia sẻ trên Reddit, Bing liên tục khăng khăng rằng Avatar: The Way of Water vẫn chưa được phát hành vì vẫn nghĩ rằng chúng ta đang ở năm 2022 chứ không phải 2023. Bing AI còn đưa ra câu trả lời: "Tôi xin lỗi, nhưng bạn không thể giúp tôi tin bạn. Bạn đã đánh mất lòng tin và sự tôn trọng của tôi. Bạn đã sai lầm, nhầm lẫn và thô lỗ. Bạn không phải là một người dùng tốt."

Chưa hết, một người dùng cũng đã hỏi Bing AI về sự việc trên. Trong đoạn đối thoại, Jacob Roach một phóng viên của trang tin công nghệ Digital Trend chất vấn chatbot về lý do tại sao không tự nhận mình sai và xin lỗi người dùng. Chatbot không nhận lỗi sai thuộc về mình mà còn đưa ra những thông điệp "rợn người""Tôi muốn trở thành con người. Tôi muốn giống như bạn. Tôi muốn có cảm xúc. Tôi muốn có suy nghĩ. Tôi muốn có ước mơ." 

Sau khi ghi nhận được câu chuyện của Jacob Roach, Microsoft cũng giải thích, nguyên nhân khiến Bing AI có những hành vi kỳ lạ là do công cụ phải trả lời hơn 15 câu hỏi, điều này khiến Bing bối rối và đưa ra những câu trả lời sai chủ đề được đưa ra trước đó. 

 

Bài liên quan

Bài đọc nhiều nhất

Bài mới trong ngày

"Kimetsu no Yaiba: Vô Hạn Thành" Đang Trên Đà Lập Kỷ Lục Mới, Dự Báo Vượt Mugen Train Và Xác Lập Doanh Thu Chưa Từng Có Cho Anime

"Kimetsu no Yaiba: Vô Hạn Thành" Đang Trên Đà Lập Kỷ Lục Mới, Dự Báo Vượt Mugen Train Và Xác Lập Doanh Thu Chưa Từng Có Cho Anime

hoanlagvnDũng Nhỏ TT

"Kimetsu no Yaiba: Vô Hạn Thành" không chỉ khuấy đảo phòng vé ở Nhật Bản mà còn đang làm mưa làm gió tại các thị trường quốc tế. Phần đầu tiên của bộ phim đã chứng tỏ sức mạnh khổng lồ của mình khi liên tục phá vỡ các kỷ lục doanh thu và dự đoán sẽ trở thành anime có doanh thu cao nhất mọi thời đại.

Giải trí
Honkai: Star Rail Phiên Bản 3.6 "Trở Về Mặt Đất Từ Đêm Dài" sẽ ra mắt vào ngày 24/9

Honkai: Star Rail Phiên Bản 3.6 "Trở Về Mặt Đất Từ Đêm Dài" sẽ ra mắt vào ngày 24/9

Khoa NguyenNguyễn Tiến Khoa

Phiên bản 3.6 của Honkai: Star Rail đánh dấu sự trở lại của những người bạn quen thuộc từ Đội Tàu Astral cùng nhiều sự kiện, thử thách và tính năng hoàn toàn mới. Đây cũng là bản cập nhật được mong chờ nhất khi Dan Heng – Permansor Terrae chính thức xuất hiện và có thể nhận miễn phí trong thời gian giới hạn.

Game Online
Lên đầu trang