vendredi, avril 19, 2024
AccueilTechTikTok a supprimé les vidéos des modèles noirs et courbes, mais pas...

TikTok a supprimé les vidéos des modèles noirs et courbes, mais pas les (mêmes) celles des modèles blancs

Bien que TikTok continue de nier avoir un problème avec les Noirs, les cas de retenue sauvage à leur égard continuent d’être un problème trop répandu au sein de la plateforme. Celui de Adore moi, une entreprise de sous-vêtements, n’est que le dernier d’une liste malheureusement longue de contenus bloqués, supprimés et limités appartenant à des créateurs noirs qui, sans raison, ont vu leurs vidéos censurées. Le cas d’Adore Me est donc encore plus sensationnel: à plusieurs reprises, il faut supprimer les vidéos qui représentent des femmes noires et rondes, mais pas celles qui représentent des femmes blanches.

La première objection est évidente: une entreprise de lingerie, qui montre donc des femmes en sous-vêtements, représente une réalité qui pourrait créer un court-circuit sur une plateforme de ce type si dédiée aux jeunes utilisatrices. Une juste clarification qui se heurte pourtant à la stratégie sociale de cette marque qui, comme expliqué sur le profil Twitter, repose sur « des années de travail avec Facebook, Instagram, Snapchat, Pinterest et d’autres plateformes pour comprendre ce qui est acceptable«Et en fait, le contenu bloqué (et rechargé sur leur profil Twitter) est tout sauf déplacé.

Dans l’une des vidéos supprimées, deux femmes (toutes deux noires, une surdimensionnée et une avec une prothèse de bras) portent différents types de sous-vêtements qui ne sont jamais trop explicites dans ce qui est un ballet TikTok normal: comme celui-ci, sur la plate-forme il y a une infinité , trop poussé et non retiré. Dans un autre, une fille blanche surdimensionnée porte des vêtements différents assise ou allongée sur un lit. Bien que dans ces cas il s’agisse en fait de femmes en sous-vêtements, ces vidéos ils ne montrent jamais d’éléments sanglants ou érotiques. Elles n’atteignent donc pas le niveau de clin d’œil que certaines vidéos aux millions de vues ont atteint sur TikTok, où de fines femmes blanches en costumes (ou en sous-vêtements) dansent et se montrent en laissant très peu de place à l’imagination. Et s’il est toujours juste de ne pas interdire ces contenus a priori, car dans le cas des créateurs noirs, surdimensionnés ou « laids », TikTok prend souvent ces mesures?

Le troisième exemple est peut-être le plus sensationnel: dans la vidéo supprimée, une fille noire utilise l’effet d’écran vert de l’application pour afficher et commenter le site Web Adore Me, ne montrant ainsi que les images des vêtements portés et non. Le film a été supprimé de TikTok, qui, cependant, n’a pas touché à un contenu identique dans la forme et le contenu présenté par une fille blanche. « Cette suppression a mis notre équipe en colère », a écrit la société sur Twitter. « Parce que cette autre vidéo n’a pas été supprimée ». Les autres vidéos avec des filles blanches maigres n’ont pas non plus été supprimées.

Les trois premières vidéos ont été censurées par TikTok, la quatrième non

Une explication possible de ces interdictions (et d’autres) vient d’Adore Me lui-même, qui utilise des systèmes algorithmiques pour recommander des éléments dans ses services. « Dans les conversations entre les équipes marketing et d’ingénierie, il a été immédiatement compris que la répétition des mesures provenait de quelque chose de programmé dans l’algorithme et non de quelque chose d’aléatoire ». En bref, ce serait l’algorithme lui-même qui traite différemment les vidéos de créateurs noirs, conduisant le plus souvent à une modération incorrecte. C’est un élément qui pourrait être à la fois volontaire et involontaire: d’une part, TikTok lui-même a peut-être décidé d’entraîner l’algorithme à limiter les vidéos avec des créateurs noirs (quelque chose que la société a effectivement fait avec ses modérateurs humains) et d’autre part l’algorithme alimenté par une grande quantité de vidéos blanches (après tout, l’algorithme vient de Chine, qui n’a pas de relation particulièrement positive envers la communauté noire ) peut s’être automatiquement calibré pour considérer les noirs comme quelque chose de « étrange et différent ». Bref, quelque chose à éliminer de la plateforme. Dans les deux cas, on ne sait pas ce que TikTok attend pour résoudre une situation dont la portée est désormais évidente.

«L’incroyable diversité de nos utilisateurs est ce qui fait de TikTok un lieu unique pour créer, partager et trouver une communauté», a expliqué un porte-parole de l’entreprise. « Mettons une chose au clair: TikTok ne modère pas le contenu en fonction de la forme, de la taille ou des compétences, et nous continuons à prendre des mesures pour renforcer nos politiques et promouvoir l’acceptation de soi. » Un constat qui se heurte à la réalité des faits: comme nous l’avons également expliqué sur 45secondes.fr, des cas de modération incorrecte envers les noirs sont à l’ordre du jour, tant en Italie que dans le monde. Même la chanteuse Lizzo (noire et surdimensionnée) a plusieurs fois a dénoncé la suppression de ses vidéos: « TikTok continue de supprimer mes vidéos de maillot de bain, mais ne touche plus les filles dans les vidéos de maillot de bain. » La référence, bien sûr, est le fait que ceux qui ne sont pas modérés sont des vidéos de filles maigres et généralement considérées comme charmantes.

Et si d’une part l’entreprise le nie, d’autre part les documents publiés en mars par The Intercept laissent peu de place au doute. Dans les indications adressées aux modérateurs humains publiées par le journal, TikTok a demandé de limiter le contenu des utilisateurs «moche», «obèse», «avec un ventre de bière», «trop maigre», «avec des difformités» et avec des maisons anciennes et en désordre . Un choix motivé, on lit toujours dans les documents, par le fait que des vidéos de ce type seraient «beaucoup moins attractives et ne mériteraient pas d’être recommandées aux nouveaux utilisateurs». Mais c’est l’indication de TikTok à la main-d’œuvre humaine: comment l’algorithmique a-t-il été formé? Selon quels critères jugez-vous le contenu des créateurs noirs? Si, comme l’ont montré des recherches de l’Université de Californie, l’algorithme est si capable de suggérer des utilisateurs égaux à ceux qui viennent d’être suivis dans les recommandations qu’il propose aux utilisateurs, il est plausible qu’il sache parfaitement s’il y a une femme dans une vidéo, un homme, un noir, un blanc, un maigre, un surdimensionné, un asiatique, un barbu ou un handicapé. Le problème, c’est qu’aujourd’hui personne ne sait comment se comporter lorsqu’un créateur noir ou gras ou handicapé se retrouve devant son regard vigilant. Ou plutôt, si d’une part les effets sont clairs, d’autre part on ne sait pas si ceux-ci sont dus à une tendance involontaire de l’algorithme imputable à un processus de formation réalisé principalement avec des blancs ou, pire, à une digitalisation volontaire indiquent déjà aux modérateurs de vouloir censurer tout ce qui n’est généralement pas considéré comme attrayant.

45secondes est un nouveau média, n’hésitez pas à partager notre article sur les réseaux sociaux afin de nous donner un solide coup de pouce. ?

Top Infos

Coups de cœur