Activision introducirá en los juegos de Call of Duty un sistema de moderación para los chats de voz para combatir la toxicidad de estos espacios en tiempo real.
Call of Duty: Modern Warfare III llegará el 10 de noviembre y con él Activision pondrá en marcha el modelo que utiliza la inteligencia artificial para moderar las conversaciones.
Este sistema de moderación actúa en tiempo real para identificar y tomar medidas contra aquellos usuarios que tienen un comportamiento inadecuado mientras juegan, por utilizar un lenguaje discriminatorio, acosar a otros jugadores o promover el discurso del odio.
ToxMod se unirá a otros sistemas de moderación ya implementados, como el filtrado de texto en 14 idiomas, que actúa sobre el chat y sobre el nombre de usuario y los mecanimos de denuncia del juego.
La editora destacó que el 20% de los jugadores de Call of Duty que recibieron una primera advertencia no volvieron a tener un comportamiento considerado tóxico. Y que aquellos que reincidieron sí que fueron penalizados, llegando a restringirles el acceso a los chats de voz y texto.
El nuevo sistema de moderación ya se implementó en Norte América, en los juegos Call of Duty: Modern Warfare II y Call of Duty: Warzone, como ha informado ACtivison en su blog oficial. El 10 noviembre, coincidiendo con el lanzamiento de Call of Duty: Modern Warfare II, ToxMod se implementará a nivel global.