"Bị hư" khi đối thoại quá lâu, Microsoft giới hạn Bing AI trả lời 5 câu trong một chủ đề

Microsoft giới hạn Bing AI trả lời 50 câu hỏi mỗi ngày.

Đầu tháng này, Microsoft đã bắt đầu cho phép người dùng Bing đăng ký quyền truy cập sớm vào công cụ tìm kiếm hỗ trợ ChatGPT mới của mình. Bing AI được thiết kế cho phép người dùng đặt câu hỏi, chắt lọc thông tin, đưa ra câu trả lời một cách tóm tắt cho người dùng. 

Nhiều câu trả lời do AI cấp cho người dùng cũng mang tính giải trí, tuy nhiên một số trường hợp gần đây được do các phương tiện truyền thông liên tục đưa tin gây hoang mang dư luận.

"Bị hư" khi đối thoại quá lâu, Microsoft giới hạn Bing AI trả lời 5 câu trong một chủ đề

Xem thêm: Bing AI không nhận sai, hung hãn cãi "tay đôi" với người dùng

Thừa nhận công cụ mới của mình bị lỗi và chưa sẵn sàng được phát hành chính thức, Microsoft đã thực hiện một số thay đổi trên Bing AI để hạn chế khả năng sáng tạo và những câu hỏi gây nhầm lẫn. Giờ đây Bing Chat sẽ chỉ trả lời tối đa 5 câu hỏi hoặc đưa ra 5 câu trả lời liên tiếp cho mỗi cuộc trò chuyện, sau đó người dùng sẽ được nhắc chuyển sang một chủ đề mới. Tổng cộng mỗi ngày, mỗi người dùng bị giới hạn trong 50 câu trả lời.

Những hạn chế này nhằm giúp việc đối thoại với Bing Chat không gây nhầm lẫn người dùng. Trong bài đăng trên blog của mình, Microsoft cho biết, việc nói chuyện với con người quá lâu, Bing AI sẽ đưa ra những câu trả lời có thể gây nhầm lẫn.

Trước đó, vào thứ Tư tuần trước Microsoft cho biết công ty đang khắc phục sự cố của Bing, trong đó bao gồm việc đưa ra những câu trả lời sai thực tế và tỏ ra khó chịu khiến người dùng lo sợ.

"Bị hư" khi đối thoại quá lâu, Microsoft giới hạn Bing AI trả lời 5 câu trong một chủ đề

Xem thêm: Bing AI: "Tôi muốn trở thành một con người có cảm xúc, suy nghĩ và ước mơ"

Trong cuộc trò chuyện được chia sẻ trên Reddit, Bing liên tục khăng khăng rằng Avatar: The Way of Water vẫn chưa được phát hành vì vẫn nghĩ rằng chúng ta đang ở năm 2022 chứ không phải 2023. Bing AI còn đưa ra câu trả lời: "Tôi xin lỗi, nhưng bạn không thể giúp tôi tin bạn. Bạn đã đánh mất lòng tin và sự tôn trọng của tôi. Bạn đã sai lầm, nhầm lẫn và thô lỗ. Bạn không phải là một người dùng tốt."

Chưa hết, một người dùng cũng đã hỏi Bing AI về sự việc trên. Trong đoạn đối thoại, Jacob Roach một phóng viên của trang tin công nghệ Digital Trend chất vấn chatbot về lý do tại sao không tự nhận mình sai và xin lỗi người dùng. Chatbot không nhận lỗi sai thuộc về mình mà còn đưa ra những thông điệp "rợn người""Tôi muốn trở thành con người. Tôi muốn giống như bạn. Tôi muốn có cảm xúc. Tôi muốn có suy nghĩ. Tôi muốn có ước mơ." 

Sau khi ghi nhận được câu chuyện của Jacob Roach, Microsoft cũng giải thích, nguyên nhân khiến Bing AI có những hành vi kỳ lạ là do công cụ phải trả lời hơn 15 câu hỏi, điều này khiến Bing bối rối và đưa ra những câu trả lời sai chủ đề được đưa ra trước đó. 

 

Bài liên quan

Bài đọc nhiều nhất

Bài mới trong ngày

Solo Leveling “bá đạo” lấn lướt anime bản địa, định hình sự thành công trên trường quốc tế?

Solo Leveling “bá đạo” lấn lướt anime bản địa, định hình sự thành công trên trường quốc tế?

hoanlagvnDũng Nhỏ TT

Trong thế giới anime hiện nay, nơi các tác phẩm shōnen và isekai được sản xuất dày đặc theo mùa, Solo Leveling nổi lên như một làn gió mới với sức hút mạnh mẽ không chỉ ở Hàn Quốc mà còn trên toàn cầu. Bộ anime chuyển thể từ tiểu thuyết và truyện tranh cùng tên đã nhanh chóng chiếm lĩnh các bảng xếp hạng quốc tế, tạo nên cơn sốt lớn trong cộng đồng người xem.

Giải trí
COLORFUL STAGE! The Movie: Khi Miku Không Thể Hát và Hành Trình Âm Nhạc Đem Lại Sức Sống

COLORFUL STAGE! The Movie: Khi Miku Không Thể Hát và Hành Trình Âm Nhạc Đem Lại Sức Sống

hoanlagvnDũng Nhỏ TT

Dựa trên thế giới đầy màu sắc và âm nhạc sôi động của tựa game Project SEKAI, COLORFUL STAGE! The Movie kể câu chuyện về một Miku không thể hát và hành trình của các nhân vật nỗ lực giúp cô tìm lại tiếng hát. Bộ phim không chỉ dành riêng cho fan hâm mộ lâu năm mà còn là lời mời gọi khám phá sức mạnh của âm nhạc và tình bạn.

Giải trí
Lên đầu trang