Phần mềm AI hướng đến việc giải quyết nạn Toxic khi Chat Voice trong game

Khi tham gia những tựa game online thi đấu, việc gặp phải tình trạng Toxic trong Voice Chat là điều quá sức bình thường. Và có vẻ như một phần mềm đang được phát triển để góp phần giải quyết điều đó

Công ty công nghệ Modulate Inc. dường như đang muốn giới thiệu một phần mềm AI mới mang tên ToxMod, có khả năng giám sát hoạt động trò chuyện trong các tựa game trực tuyến theo thời gian thực. Modulate Inc. đang nỗ lực cho bước tiếp theo của việc giải quyết vấn nạn ngôn ngữ "toxic" của game thủ trong thế giới ảo. Hành vi văng tục, xúc phạm đối phương của cộng đồng game thủ trực tuyến về cơ bản đã tồn tại từ khi các trò chơi trực tuyến ra đời, nhưng các báo cáo gần đây cho thấy tình trạng đó đang ngày càng tệ hơn, thậm chí đến mức một nhà phát triển của Respawn Entertainment còn lên tiếng chỉ trích về sự "toxic" của một bộ phận người chơi Apex Legends.

Phần mềm AI hướng đến việc giải quyết nạn Toxic khi Chat Voice trong game

Được quảng cáo là dịch vụ kiểm duyệt giọng nói đầu tiên trên thế giới, ToxMod sử dụng giọng nói như một phương tiện để kiểm duyệt tốt hơn những kiểm duyệt câu chữ. Nói cách khác, phần mềm này có thể phát hiện mọi thứ đang diễn ra như thế nào, thay vì các công nghệ cũ chỉ giám sát những gì đã được nói. Người đồng sáng lập kiêm CEO của Modulate, ông Mike Pappas tuyên bố các nhà phát triển giờ đây có thể thực hiện những cách tiếp cận chi tiết hơn, đa dạng hơn để đối phó với tình trạng "toxic ngôn ngữ". Thay vì chỉ đơn thuần là chặn một cuộc thảo luận, ToxMod sẽ cho phép nhà phát triển chặn từ hoặc câu cụ thể, như những câu chửi mang tính phân biệt chủng tộc. Phần mềm AI này cũng có khả năng cô lập những yếu tố cá nhân như số điện thoại, hay các thông tin liên quan đến danh tính khác.

Phần mềm AI hướng đến việc giải quyết nạn Toxic khi Chat Voice trong game 2

Tương tự như những gì Overwatch đang làm để đối đầu với việc nói chuyện toxic, ToxMod tận dụng các mô hình "Học Máy" để hiểu chính xác những gì người chơi đang nói, và đang nói như thế nào. Điều này bao gồm các yếu tố như cảm xúc, âm lượng, lên xuống giọng, và nhiều thứ khác, nhằm đưa ra dự đoán chính xác hơn về việc câu nói đó có mang tính quấy rối hay xúc phạm không. Các biện pháp giám sát này sau đó có thể xác định những bên liên quan, và đưa ra một giải pháp trước khi vấn đề trở nên tồi tệ hơn. ToxMod sẽ dựa vào toàn bộ dữ liệu thời gian thực của mỗi người chơi, và chỉ gửi đi những đoạn clip âm thanh nếu có yếu tố xúc phạm trong đó, và (phần lớn) sẽ đảm bảo tính riêng tư. Dù sao thì, ToxMod cũng không phải phần mềm đầu tiên chủ động giám sát việc trò chuyện trong game.

Phần mềm AI hướng đến việc giải quyết nạn Toxic khi Chat Voice trong game 3

Hiện tại, những game thủ sở hữu PlayStation 5 có thể đã bắt đầu nhận thấy những cuộc trò chuyện nhóm có thể được ghi âm lại và báo cáo cho Sony. Tuy nhiên, điểm khác biệt quan trọng là Sony sẽ để cho người chơi báo cáo lẫn nhau, trong khi ToxMod lựa chọn cách ứng xử chủ động hơn. Dù thế nào đi nữa, ngành công nghiệp game rõ ràng đang cố gắng thực hiện những thay đổi quan trọng để xử lý triệt để nhiều tình huống chơi game toxic nhất có thể. Trong khi các tựa game trực tuyến đã trở thành chất xúc tác cho vấn đề toxic trong người chơi, một tựa game mới dường như đang hướng đến việc làm ngược lại. Được thành lập bởi đội ngũ những cựu thành viên của Riot, Vela Games đang thử nghiệm dự án đầu tay của mình, Project-V, được thiết kế cụ thể cho việc đấu tranh với hành vi toxic, và tái hiện lại lối chơi co-op truyền thống. Hi vọng nó sẽ không đi kèm bất kì phần mềm AI nghe lén nào.

Bài liên quan

Bài đọc nhiều nhất

Bài mới trong ngày

Lên đầu trang