Tech&Co
Gaming

Le prochain Call of Duty utilisera une IA pour modérer les échanges vocaux en direct

Activision a conclu un partenariat avec une entreprise spécialisée dans la modération afin d'identifier les commentaires qui pourraient enfreindre les règles du jeu.

A partir du 10 novembre, les discours inappropriés pourraient bien se faire plus rares dans les échanges vocaux en direct au sein de la saga Call of Duty. Avec la sortie du nouvel opus, Call of Duty: Modern Warfare III, Activision a décidé de se pencher plus intensément sur un fléau bien présent dans cet univers: les propos haineux, le harcèlement ainsi que la discrimination.

Pour ce faire, l'entreprise a décidé de s'associer à l'entreprise Modulate, spécialiste des outils pour lutter contre les comportements toxiques en ligne. En phase d'expérimentation depuis ce 30 août en Amérique du Nord avec Call of Duty: Modern Warfare II et Call of Duty: Warzone, l'outil "ToxMod" utilisera l'intelligence artificielle pour réguler les chats en direct.

Une aide pour les "vrais" modérateurs

Sur son site, Modulate explique que l'outil fonctionne en trois temps: d'abord une phase de tri où les données du chat vocal sont scrutées, puis une phase d'analyse où l'IA va regarder le ton, le contexte et l'intention perçus dans les conversations, et enfin une phase dite "d'intensification" qui permettra aux modérateurs "réels" de prendre des mesures pour mieux gérer les comportements déviants.

"La puissante analyse de toxicité de ToxMod évalue le ton, le timbre, l'émotion et le contexte d'une conversation pour déterminer le type et la gravité du comportement toxique. La technologie d'apprentissage automatique de ToxMod peut comprendre les émotions et les nuances pour aider à différencier les plaisanteries amicales des véritables mauvais comportements", précise l'entreprise.

L'intelligence artificielle ne pourra donc pas prendre la décision de suspendre ou bannir un joueur en fonction de son comportement, mais elle pourra le signaler auprès des équipes d'Activision.

1 million de comptes déjà sanctionnés

Pour le moment, la modération par IA ne pourra être effectuée que pour les joueurs qui échangent en anglais. Sur le site officiel dédié au jeu, il est toutefois indiqué que d'autres langues "suivront ultérieurement".

Activision précise par ailleurs que les mesures de modération "anti-toxicité" déjà présentes depuis le lancement de COD: Modern Warfare II ont déjà permis de limiter le chat vocal à plus d'un million de comptes.

Sur ce million, 20% des joueurs n'auraient pas récidivé après avoir reçu leur premier avertissement. Et pour les plus récalcitrants aux règles, Activision indique avoir restreint certaines fonctionnalités, notamment la possibilité de participer à un chat vocal ou textuel.

Julie Ragot