Une fuite de Twitch suggère une réponse majeure aux problèmes de « foule de haine » du site de streaming

Logo Twitch.

Twitch, le populaire site de streaming de jeux racheté par Amazon en 2014, a été inondé ces derniers mois par des « raids haineux », qui peuvent déverser des propos vulgaires et haineux dans les principaux flux de discussion du site. Depuis un certain temps, les insultes racistes et les références fanatiques ont gagné ce combat, mais une mise à jour de l’interface divulguée suggère que Twitch pourrait enfin prendre des mesures légitimes pour écraser ses flux de discussion toxiques.

Dimanche, le journaliste de l’industrie du streaming, Zach Bussey, a partagé une série de captures d’écran, y compris une interface comme apparemment capturé sur le site allemand de Twitch, qui pointent vers un nouveau type de système de vérification des utilisateurs à venir sur le service de chat. Comme illustré et décrit, ce système permettrait aux utilisateurs de Twitch de choisir de vérifier leur adresse e-mail ou leur numéro de téléphone. (Une version de vérification par e-mail existe déjà, mais actuellement, les utilisateurs de Twitch peuvent utiliser la même adresse pour vérifier en bloc plusieurs comptes en même temps.)

L’incitation à s’inscrire à ce processus viendra des modérateurs individuels de la chaîne Twitch, qui pourraient n’autoriser les gens à discuter que s’ils ont vérifié l’un ou l’autre (ou les deux) identifiants.

L’interface divulguée indique également qu’une fonctionnalité de modération Twitch demandée depuis longtemps arrive enfin en ligne: la possibilité de faire taire les comptes en fonction de leur durée d’existence. Si votre chaîne est « assaillie » par des centaines de comptes nouvellement créés, tous gérés par un système de bot automatique avec des conceptions sur l’inondation de son canal de discussion dédié, ce nouveau système taquiné les bloquerait avec une règle telle que « les comptes doivent dater de plus d’une semaine.  » (ou même plus longtemps, si un hôte le souhaite).

Un mois après #ADayOffTwitch

Sans ces systèmes en place, les utilisateurs de Twitch ont dû rechercher des outils de modération complémentaires non officiels pour faire reculer un réseau de plus en plus agressif de pilleurs de haine, dont certains s’organisent en un réseau en constante évolution de plates-formes externes telles que Discord. Dans un rapport publié fin août, le journaliste du Washington Post Nathan Grayson décrit une grande partie de l’écosystème des raids haineux. Et un rapport de fin août du Mary Sue cite et cite directement certains des langages et tactiques les plus haineux utilisés par les pirates haineux avant le #ADayOffTwitch du 1er septembre, un effort mené par les streamers concernés pour attirer davantage l’attention du public sur les problèmes de la plate-forme.

Cependant, étant donné que les outils de modération de la communauté reposent sur des informations accessibles au public par opposition au contrôle total de Twitch sur le pipeline des nouveaux utilisateurs, ils ne sont que si efficaces. Les raids haineux sont généralement générés avec un mélange de systèmes de bots automatiques et de l’interface de création de compte gratuite et indulgente de Twitch. (Ce dernier manque toujours de toute forme de système d’authentification CAPTCHA, ce qui en fait un candidat de choix pour l’exploitation de bots.) Alors que Twitch inclut des outils intégrés pour bloquer ou signaler les messages qui déclenchent un dictionnaire plein de termes vulgaires et haineux, de nombreux les plus grands auteurs de raids haineux se sont tournés vers leurs propres outils de peignage de dictionnaire.

Ces outils permettent aux auteurs de raids haineux d’échapper aux outils de modération de base, car ils construisent des mots en utilisant des caractères non latins et peuvent générer des milliers de fac-similés d’insultes notoires en mélangeant et en faisant correspondre des caractères, semblant ainsi assez proches du mot original. Leur pouvoir de haine et de fanatisme explose grâce au contexte qui transforme des mots sans doute innocents en insultes ciblées, selon le groupe marginalisé auquel ils s’adressent. Twitch a depuis mises à jour poussées à ses systèmes de modération de dictionnaire qui, entre autres, recherchent des flots de caractères non latins. Mais ceux-ci se sont également avérés insuffisants pour certains hôtes Twitch concernés.

Plus tôt ce mois-ci, Twitch a poursuivi deux utilisateurs qu’il a identifiés comme des auteurs répétés de raids haineux. Pourtant, même si cela convient aux créateurs ciblés de milliers de comptes, le jeu de discours haineux qui a suivi a laissé les utilisateurs concernés se démener pour trouver des outils et des systèmes capables de repousser un flot de toxicité. Et si les utilisateurs veulent gagner leur vie en tant que streamers pris en charge par les abonnés, toutes les chaînes concernées, généralement hébergées par des streamers plus petits, parfois avec des dizaines ou des centaines de téléspectateurs, ont peu d’options supérieures vers lesquelles se tourner. En Occident, ni YouTube Gaming ni Facebook Gaming n’offrent d’outils d’auto-modération sensiblement plus robustes, et ils ne bénéficient pas d’un public proche des chiffres massifs de Twitch. Ce dernier devient un point d’achoppement pour tout hôte souhaitant augmenter de manière organique son audience tout en signalant sa chaîne avec des tags tels que « LGBTQIA+ » ou « Afro-américain ».

Lorsqu’il a été contacté par Ars Technica avec des questions sur le rapport de Bussey et sur tout autre outil intégré que le réseau pourrait déployer pour les créateurs face aux foules haineuses, un représentant de Twitch a refusé de commenter.

Nous serions ravis de connaître votre avis

Laisser un commentaire

Votre score total

MeilleursBlogs 🥇 Guide, Avis & Comparatif des Meilleurs Sites et Boutiques en ligne
Logo