La Ligue anti-diffamation a étudié trois mois de données anonymes pour analyser comment Minecraft traite les discours de haine.
L’Anti-Defamation League (ADL) recommande à Minecraft de plus investir dans ses efforts de modération du contenu et dans la création de directives communautaires plus robustes après que l’organisation ait étudié trois mois de données de chat anonymes du jeu. L’étude, qui a été menée en collaboration avec Take This, l’Institut d’études internationales de Middlebury et GamerSafer, a porté spécifiquement sur la façon dont Minecraft traite les discours de haine en jeu.
Les chercheurs ont choisi Minecraft non seulement parce qu’il est populaire mais aussi parce que, comme le dit l’ADL, “la nature décentralisée et gérée par les joueurs de l’édition java de Minecraft offre une nouvelle opportunité d’évaluer la haine et le harcèlement dans les espaces de jeu”. Et bien que les conclusions de l’ADL soient spécifiques à Minecraft, les recommandations s’appliquent à la plupart des espaces en ligne.
Minecraft est massif, avec de très nombreux serveurs dans lesquels les joueurs se rassemblent, il est donc impossible de vraiment étudier l’intégralité de cet univers. Ainsi, les chercheurs se sont concentrés sur trois serveurs multijoueurs de tailles et de publics différents :
- Le serveur 1 comprenait environ 20 000 joueurs, pour la plupart âgés de 14 à 18 ans, avec une application stricte des règles et un ratio joueur/modérateur d’environ 464:1. Ce serveur, qui était le plus actif, représentait environ 94 % des données de l’étude.
- Le serveur 2 comptait environ 1 000 joueurs, âgés en moyenne de 15 à 20 ans, et seulement deux modérateurs, dont les règles étaient peu ou pas appliquées.
- Le serveur 3 ne comptait que 400 joueurs, avec un ratio joueur/modérateur impressionnant de 41:1 et une modération active et étendue. La plupart des joueurs étaient âgés d’au moins 16 ans.
En utilisant les plugins de GamerSafer, les chercheurs ont pu suivre 458 actions disciplinaires contre 374 utilisateurs différents. Ils ont analysé à la fois ces rapports officiels et une analyse textuelle des logs de discussion afin de repérer des modèles et des cas non signalés de discours haineux.
Les chercheurs ont constaté que, dans la plupart des cas, les bans temporaires, l’un des principaux outils des modérateurs pour contrôler les joueurs, sont efficaces pour réprimander les mauvais comportements. Les interdictions temporaires ont été utilisées comme technique de modération dans 46 % de toutes les instances étudiées.
Sur les trois mois de logs étudiées ici, 40 % de tous les rapports officiels ont été déposés pour “piratage” (utilisation d’avantages interdits), 16 % pour harcèlement, 10 % pour haine et 9 % pour inconduite sexuelle. Sur les 1 463 891 messages étudiés, 2 % ont été classés dans la catégorie des messages gravement toxiques, 1,6 % dans celle des messages sexuellement explicites et 0,5 % dans celle des messages haineux (dont un grand nombre visait la sexualité et le sexe).
Les conclusions de l’ADL sont succinctes : la modération humaine fonctionne, et Minecraft devrait investir plus de ressources dans ladite modération. Les serveurs de jeu avec plus de modérateurs et des directives plus strictes ont enregistré le moins d’incidents de haine et de harcèlement. L’ADL recommande également que Minecraft améliore l’accès des chercheurs aux données afin que l’efficacité de la modération puisse être étudiée avec encore plus de perspicacité.
Une conclusion qui vient se confronter à la fronde des joueurs contre les décisions du Mojang concernant Minecraft 1.19.1.
Source : inputmag.com – Image à la une : artstation.com
Si ils veulent vraiment modérer humainement 100/100 des messages sur Minecraft, on aura plus jamais de problème de chômage.
donc si l’article est vrai , le nouveau système de report est relativement peut efficace.
plus compliqué que ça. En gros, cela demontre que la modération humaine présente de base sur les serveur est efficace et que plus le ratio modo:joueur est grand en faveur des modos, plus c’est utile. Mais cela est aussi du que les modos connaisse les joueurs et le contexte, ce que le nouveau systéme ne permettra pas… C’est pour cela que beaucoup, dont moi craignent le nouveau systéme, car cela parait une bonne idée de prime abord mais en vérité la moderation serveur de base est efficace et que cela risque juste de devenir un outils pour bannir du multi en masse des joueurs. L’exemple le plus cité etant un serveur privé ou les joueurs en aurait pris un autre en grippe par exemple et voudrait se venger. Mais on peut pas encore juger a notre stade de ce nouveau systéme, vu que l’etude parle de modo humain direct sur le serv, l’avenir seule nous dira l’effeicacité et les abus du nouveau systéme de report
elle veux démontré quoi cette étude que plus de modérateur => plus de modération?