À mesure que les jeux vidéo évoluent vers le jeu en ligne, le besoin de modération se fait de plus en plus sentir. Les chats et les forums en ligne permettent aux joueurs de se retrouver et de se connecter, mais, comme dans le monde réel, ils donnent parfois lieu à des comportements inappropriés.

Chaque jour, des millions de joueurs de jeux vidéo de tous âges dans le monde entier entrent sur le terrain de jeu en ligne, ce qui donne lieu à une interaction et à un échange de contenu constants. Cependant, sans une modération appropriée, nous risquons parfois des abus verbaux, des commentaires désobligeants ou vitrioliques, des expériences de jeu vidéo inappropriées et même de l’hostilité. Garantir un environnement de jeu vidéo sûr et respectueux est le rôle clé de la modération des jeux vidéo.

 

La modération des jeux vidéo est le filtrage numérique des déclarations en ligne et du contenu en ligne créé par les utilisateurs, afin de s’assurer que tout est conforme aux lois applicables, au comportement en ligne approprié et aux règles des jeux vidéo eux-mêmes. Les modérateurs humains passent en revue de grandes quantités d’images, de chats et de fichiers audio pour en supprimer le contenu indésirable.

 

Bien que les studios de jeux vidéo fassent traditionnellement appel à des modérateurs humains, l’importance des technologies de modération pour l’exécution des tâches de routine ne cesse de croître en raison de l’augmentation du flux d’activités en ligne. En utilisant des outils automatisés, des algorithmes intelligents et le traitement du langage, la modération par l’IA peut rapidement traiter de grandes quantités de « user generated content ».

 

 

Riot Games, le studio à l’origine du jeu multijoueur en ligne extrêmement populaire League of Legends, maintient une liste stricte de mots et de phrases de tolérance zéro. Pour ce faire, le studio utilise une technologie de détection en temps réel pour filtrer le langage indésirable dans ses jeux vidéo. Les joueurs du jeu Valorant peuvent créer leur propre liste de muted words, en entrant manuellement les mots et les phrases qu’ils ne veulent pas rencontrer. En retour, la fonction mute automatique détecte les propos nuisibles avant même qu’ils ne soient vus par les autres joueurs. Les contrevenants sont retirés du chat et reçoivent un message expliquant pourquoi.

 

Epic Games, créateur du jeu vidéo immensément populaire Fortnite, identifie les contenus et comportements en ligne indésirables grâce à une combinaison astucieuse de rapports de joueurs, de modérateurs et de technologie automatisée. Sur cette base, Epic prend des mesures pour résoudre ces problèmes et propose également un paramètre qui permet aux joueurs et aux parents de filtrer le langage inapproprié du chat textuel de Fortnite.

 

Triangle Factory, un studio flamand, intègre ToxMod, l’IA de modération proactive en mode vocal de Modulate. Dans le jeu VR Breachers, cette technologie garde un œil sur le chat vocal, identifiant les comportements nuisibles et analysant les nuances des conversations pour en déceler la toxicité. Elle aide ainsi les modérateurs à réagir rapidement en fournissant le contexte approprié. Activision utilise également la technologie ToxMod pour la série Call of Duty.

 

Découvrez ici ce qu’il faut faire et ne pas faire pour jouer en toute sécurité et comment signaler un comportement en ligne indésirable et bloquer des joueurs.