Call of Duty utiliza una IA como moderadora contra jugadores tóxicos

Los jugadores tóxicos siempre han sido un problema en el mundillo de los juegos online, aunque es cierto que la saga Call of Duty ha sido una de las más afectadas. Recuerdo que durante la primera gran «explosión» de éxito del multijugador en Call of Duty 3 funcionando sobre una Xbox 360 los niveles de toxicidad que se podían alcanzar eran estratosféricos, y esta realidad no ha cambiado, por desgracia.

Esta franquicia tiene una enorme comunidad de jugadores, y esto hace que intentar controlar a las hordas de usuarios tóxicos que hay en sus filas sea una tarea muy complicada. No hay duda de que esto es un problema, pero Activision Blizzard parece haber encontrado una solución, utilizar una inteligencia artificial para moderar y reducir el impacto que tienen este tipo de usuarios.

Siendo sinceros, la verdad es que este tipo de jugadores pueden arruinar la diversión de cualquiera y hacer que lo que debería ser un rato de diversión se convierta en una experiencia frustrante. Con esto en mente, no es raro que Activision Blizzard haya decidido recurrir a esta tecnología para hacer frente a dicho problema. Esa IA moderadora ha sido creada gracias a una alianza entre esta empresa y Modulate, y se ha denominado como «ToxMod».

¿Cómo funciona la IA moderadora de Call of Duty?

Pues es muy sencillo, «ToxMod» detectará a los jugadores que hablen de una manera tóxica y abusiva, y actuará en consecuencia. Esto quiere decir que dicha IA tiene capacidad de reconocimiento de voz, es decir, puede entender lo que los usuarios dicen y dar contexto a sus expresiones, lo que significa que es una solución muy avanzada.

Si te preguntas qué se considera como hablar de forma tóxica y abusiva la respuesta también es muy simple. Se considera como tal cualquier discurso de odio, discriminación, acoso, insultos y otras expresiones que puedan ser consideradas como abuso verbal. «ToxMod» es capaz de entender hasta 14 idiomas diferentes, así que va a cubrir un amplio espectro de jugadores.

De momento esta tecnología se ha integrado en Call of Duty Warzone y en Modern Warfare II, pero sabemos que estará integrado también en Call of Duty Modern Warfare III, la próxima entrega de la franquicia que, si todo va según lo previsto, llegará al mercado el 10 de noviembre y será, casi con total seguridad, la última entrega de transición intergeneracional que veremos.

Un movimiento importante por parte de Activision Blizzard para frenar a los jugadores tóxicos, aunque no ha sido el único que ha llevado a cabo. Recientemente la compañía estadounidense también lanzó un sistema para prevenir lo que se conoce como reportes maliciosos, es decir, casos en los que algunos jugadores enviaban denuncias falsas contra otros jugadores.

La entrada Call of Duty utiliza una IA como moderadora contra jugadores tóxicos se publicó primero en MuyComputer.