Le plateformes sociales ont maintenant un énorme problème avec les menaces, discours de haine et insultes raciales ou religieuses: modérer ce contenu pour éviter qu’il ne nuise aux utilisateurs est impossible pour le vrai personnel, mais les algorithmes utilisés pour faire l’essentiel du travail ne sont pas parfaits. Une manifestation provient d’un cas de censure involontaire survenu l’année dernière le Youtube, lorsque les algorithmes sociaux ont supprimé la vidéo d’un jeu d’échecs sans raison apparente. Une recherche publiée ces derniers jours par l’Université Carnegie Mellon a révélé que la base de la décision pourrait être le fait que l’intelligence artificielle qui modère les vidéos sur YouTube ne sait pas qui parle de «blancs» et de «noirs» comme des morceaux du puits – stratégie de jeu connue par des personnes qui utilisent les termes comme catégories opposées dans le discours de haine.
La vidéo incriminée remonte à juin de l’année dernière et provient d’un joueur d’échecs bien connu sur YouTube: Le joueur croate Antonio Radić, connu sur la plateforme sous le nom d’Agadmator. Outre le fait que la chaîne elle-même compte environ un million de followers, dans le clip apparaît une véritable célébrité du secteur: le grand maître Hikaru Nakamura. Quelques heures après la mise en ligne du contenu, YouTube l’a supprimé et a également bloqué l’ensemble de la chaîne pendant environ 24 heures, pour avoir publié du contenu «nuisible et dangereux». La mesure a été annulée en peu de temps, mais YouTube n’a jamais fourni d’explications sur ce qui s’est passé.
Des chercheurs de l’Université Carnegie Mellon ont tenté de donner l’explication tester certains logiciels qui sont normalement utilisés pour détecter les discours de haine dans les documents publiés en ligne. Les chercheurs ont analysé plus de 680 000 commentaires recueillis sur cinq chaînes YouTube sur le thème des échecs; de tous les commentaires qu’un ou plusieurs logiciels ont classés comme discours de haine, ils ont recueilli un échantillon de 1 000 à analyser manuellement.
Ce qui est ressorti, c’est que le82 pour cent des commentaires rapportés par l’intelligence artificielle en fait il ne contenait aucune référence haine: les systèmes d’analyse – est la conclusion de l’expérience – semblent avoir été activés par diverses combinaisons de mots-clés tels que «blanc», «noir», «attaque» et «menace». YouTube ne divulgue pas si et quels algorithmes il utilise pour intercepter la haine raciale et les menaces sur sa plate-forme, mais l’explication fournie remet toujours en question le fonctionnement général des systèmes automatisés que nous prenons pour infaillibles: sans comprendre le contexte et pourrait modérer des conversations légitimes pour excès de zèle ou abandon de phénomènes dangereux et dûment masqués.
45secondes est un nouveau média, n’hésitez pas à partager notre article sur les réseaux sociaux afin de nous donner un solide coup de pouce. ?