Call of Duty : Modern Warfare 3 sera publié avec le soutien de modération du chat vocal dans le jeu, améliorée par laintelligence artificielle. Activision utilise précisément le modèle ToxMod de Modulate de modération en temps réel du chat vocal pour lutter contre les comportements toxiques.
La technologie utilise l'intelligence artificielle pour identifier les comportements toxiques en temps réel., y compris les discours de haine, le langage discriminatoire et le harcèlement. Call of Duty utilise déjà un filtre textuel en 14 langues pour les textes du jeu (chat et noms d'utilisateur) et un système de signalement des joueurs dans le jeu.
Dans un FAQ, Activision a cherché à rassurer les joueurs en insistant sur le fait que le chat vocal est surveillé et enregistré “dans le but exprès de la modération” et “se concentre sur la détection du harcèlement au sein du chat vocal en ce qui concerne des mots-clés spécifiques”.
L'explication d'Activision
Le nouveau système de modération est basé sur le système actuel. Code de conduite de Call of Duty. “Les chats vocaux qui incluent des brimades ou du harcèlement ne seront pas tolérés”, prévient Activision. Le code de conduite autorise toutefois le “trash-talk” et le “badinage amical”. “Les discours haineux, la discrimination, le sexisme et d'autres types de langage harcelant, tels que décrits dans le Code de conduite, ne seront pas tolérés”, a ajouté Activision.
Activision a également souligné que l'IA n'applique pas les violations du code de conduite qu'elle détecte.. “Le système de modération du chat vocal de Call of Duty envoie uniquement des rapports sur les comportements toxiques, classés en fonction du type de comportement et d'un niveau de gravité basé sur un modèle évolutif”, a expliqué Activision. “Activision décide de la manière de faire respecter les violations de la modération du chat vocal”.
Malgré les nouvelles technologies de l'IA, l'application de la modération des chats vocaux n'est pas instantanée., a précisé Activision. La détection se fait en temps réel, le système catégorisant et signalant le langage toxique selon le Code de conduite de Call of Duty dès qu'il est détecté, mais les violations détectées “peuvent nécessiter un examen plus approfondi des enregistrements associés” pour identifier le contexte avant de déterminer l'application de la loi. “Au fur et à mesure que le système se développe, nos processus et nos temps de réponse évolueront”, a déclaré Activision.
Activision a souligné que les joueurs qui ne souhaitent pas que leur voix soit modérée. peuvent désactiver le chat vocal dans le jeu dans le menu des paramètres, mais il ne semble pas y avoir de moyen de se désengager s'ils veulent continuer à utiliser le chat vocal.
“Il n'y a pas de place pour les comportements perturbateurs ou le harcèlement dans les jeux”, a déclaré. Michael Vance, directeur de la technologie d'Activision.. “La gestion des chats vocaux harcelants, en particulier, est depuis longtemps un défi extraordinaire pour les jeux. Avec cette collaboration, nous utilisons la technologie d'apprentissage automatique de pointe de Modulate. Il s'agit d'une étape essentielle pour créer et maintenir une expérience amusante, juste et accueillante pour tous les joueurs.”
Une version bêta de cette technologie sera déployée le 30 août en Amérique du Nord au sein de Modern Warfare 2 et Warzone, tandis que la sortie mondiale (hors Asie) est prévue pour le lancement de Modern Warfare 3 le 10 novembre. La prise en charge se fera d'abord en anglais, et d'autres langues suivront.
Enfin, voyons quand Lara Croft sera disponible dans Call of Duty.