Phần mềm AI hướng đến việc giải quyết nạn Toxic khi Chat Voice trong game

Khi tham gia những tựa game online thi đấu, việc gặp phải tình trạng Toxic trong Voice Chat là điều quá sức bình thường. Và có vẻ như một phần mềm đang được phát triển để góp phần giải quyết điều đó

Công ty công nghệ Modulate Inc. dường như đang muốn giới thiệu một phần mềm AI mới mang tên ToxMod, có khả năng giám sát hoạt động trò chuyện trong các tựa game trực tuyến theo thời gian thực. Modulate Inc. đang nỗ lực cho bước tiếp theo của việc giải quyết vấn nạn ngôn ngữ "toxic" của game thủ trong thế giới ảo. Hành vi văng tục, xúc phạm đối phương của cộng đồng game thủ trực tuyến về cơ bản đã tồn tại từ khi các trò chơi trực tuyến ra đời, nhưng các báo cáo gần đây cho thấy tình trạng đó đang ngày càng tệ hơn, thậm chí đến mức một nhà phát triển của Respawn Entertainment còn lên tiếng chỉ trích về sự "toxic" của một bộ phận người chơi Apex Legends.

Phần mềm AI hướng đến việc giải quyết nạn Toxic khi Chat Voice trong game

Được quảng cáo là dịch vụ kiểm duyệt giọng nói đầu tiên trên thế giới, ToxMod sử dụng giọng nói như một phương tiện để kiểm duyệt tốt hơn những kiểm duyệt câu chữ. Nói cách khác, phần mềm này có thể phát hiện mọi thứ đang diễn ra như thế nào, thay vì các công nghệ cũ chỉ giám sát những gì đã được nói. Người đồng sáng lập kiêm CEO của Modulate, ông Mike Pappas tuyên bố các nhà phát triển giờ đây có thể thực hiện những cách tiếp cận chi tiết hơn, đa dạng hơn để đối phó với tình trạng "toxic ngôn ngữ". Thay vì chỉ đơn thuần là chặn một cuộc thảo luận, ToxMod sẽ cho phép nhà phát triển chặn từ hoặc câu cụ thể, như những câu chửi mang tính phân biệt chủng tộc. Phần mềm AI này cũng có khả năng cô lập những yếu tố cá nhân như số điện thoại, hay các thông tin liên quan đến danh tính khác.

Phần mềm AI hướng đến việc giải quyết nạn Toxic khi Chat Voice trong game 2

Tương tự như những gì Overwatch đang làm để đối đầu với việc nói chuyện toxic, ToxMod tận dụng các mô hình "Học Máy" để hiểu chính xác những gì người chơi đang nói, và đang nói như thế nào. Điều này bao gồm các yếu tố như cảm xúc, âm lượng, lên xuống giọng, và nhiều thứ khác, nhằm đưa ra dự đoán chính xác hơn về việc câu nói đó có mang tính quấy rối hay xúc phạm không. Các biện pháp giám sát này sau đó có thể xác định những bên liên quan, và đưa ra một giải pháp trước khi vấn đề trở nên tồi tệ hơn. ToxMod sẽ dựa vào toàn bộ dữ liệu thời gian thực của mỗi người chơi, và chỉ gửi đi những đoạn clip âm thanh nếu có yếu tố xúc phạm trong đó, và (phần lớn) sẽ đảm bảo tính riêng tư. Dù sao thì, ToxMod cũng không phải phần mềm đầu tiên chủ động giám sát việc trò chuyện trong game.

Phần mềm AI hướng đến việc giải quyết nạn Toxic khi Chat Voice trong game 3

Hiện tại, những game thủ sở hữu PlayStation 5 có thể đã bắt đầu nhận thấy những cuộc trò chuyện nhóm có thể được ghi âm lại và báo cáo cho Sony. Tuy nhiên, điểm khác biệt quan trọng là Sony sẽ để cho người chơi báo cáo lẫn nhau, trong khi ToxMod lựa chọn cách ứng xử chủ động hơn. Dù thế nào đi nữa, ngành công nghiệp game rõ ràng đang cố gắng thực hiện những thay đổi quan trọng để xử lý triệt để nhiều tình huống chơi game toxic nhất có thể. Trong khi các tựa game trực tuyến đã trở thành chất xúc tác cho vấn đề toxic trong người chơi, một tựa game mới dường như đang hướng đến việc làm ngược lại. Được thành lập bởi đội ngũ những cựu thành viên của Riot, Vela Games đang thử nghiệm dự án đầu tay của mình, Project-V, được thiết kế cụ thể cho việc đấu tranh với hành vi toxic, và tái hiện lại lối chơi co-op truyền thống. Hi vọng nó sẽ không đi kèm bất kì phần mềm AI nghe lén nào.

Bài liên quan

Bài đọc nhiều nhất

Bài mới trong ngày

Lộ khóa bảo mật sâu nhất của PlayStation 5, nguy cơ bẻ khóa vĩnh viễn hơn 60 triệu máy

Lộ khóa bảo mật sâu nhất của PlayStation 5, nguy cơ bẻ khóa vĩnh viễn hơn 60 triệu máy

quânQuân Kít

Ngoài ra, vụ rò rỉ này cũng được xem là tin tốt đối với cộng đồng giả lập. Các nhà phát triển trình giả lập có thể sử dụng thông tin từ BootROM để cải thiện độ chính xác và khả năng tương thích, mở ra tiềm năng biến PlayStation 5 thành một nền tảng giả lập đa hệ mạnh mẽ.

Công Nghệ
Máy in 3D Bambu Lab A1 bị nghi ngờ rủi ro an toàn do linh kiện quá nhiệt

Máy in 3D Bambu Lab A1 bị nghi ngờ rủi ro an toàn do linh kiện quá nhiệt

quânQuân Kít

Trong một buổi phát trực tiếp gần đây, Posner đã sử dụng camera nhiệt để kiểm tra máy in A1 và ghi nhận nhiệt độ của điện trở nhiệt NTC lên tới khoảng 140°C. Ông cho rằng mức nhiệt này là không phù hợp đối với một linh kiện điện tử được lắp đặt gần các bộ phận bằng nhựa.

Công Nghệ
Lên đầu trang