dans

Google: Le portail publicitaire assimile les “filles noires” au porno ?

Le planificateur de mots clés de Google, qui aide les annonceurs à choisir les termes de recherche à associer à leurs annonces, a proposé des centaines de suggestions de mots clés en rapport avec “Filles noires”, “Filles latines” et “Filles asiatiques” – la majorité d’entre elles étant pornographiques.

Les recherches ethniques pour les garçons renvoient aussi à la pornographie

Les recherches effectuées dans le planificateur de mots clés pour «garçons» de ces mêmes origines ethniques ont également renvoyé principalement des suggestions liées à la pornographie.

Les recherches pour «Filles blanches» et «Garçons blancs» n’ont cependant renvoyé aucun terme suggéré.

Google semble avoir bloqué les résultats de termes combinant une race ou une origine ethnique et que les mots “garçons” ou “filles” ne soient pas renvoyés par le planificateur de mots clés peu de temps après que The Markup ait contacté la société pour obtenir des commentaires sur le problème.

Ces résultats indiquent que, jusqu’à ce que The Markup l’ait porté à l’attention de l’entreprise, les systèmes de Google contenaient un préjugé racial qui assimilait les personnes de couleur à une sexualisation objectivée tout en exemptant les Blancs de toute association. De plus, en n’offrant pas un nombre significatif de suggestions non pornographiques, ce système a rendu plus difficile pour les spécialistes du marketing qui tentaient d’atteindre les jeunes Noirs, Latinx et Asiatiques avec des produits et services liés à d’autres aspects de leur vie.

Le planificateur de mots clés de Google est un élément important de l’écosystème publicitaire en ligne de l’entreprise. Les spécialistes du marketing en ligne utilisent régulièrement l’outil pour décider des mots clés à proximité desquels acheter des annonces dans les résultats de recherche Google, ainsi que d’autres propriétés en ligne de Google. Google Ads a généré plus de 134 milliards de dollars en chiffre d’affaires rien qu’en 2019.

«Le langage qui a fait surface dans l’outil de planification des mots clés est offensant et, bien que nous utilisions des filtres pour empêcher ce type de termes d’apparaître, cela n’a pas fonctionné comme prévu dans ce cas», a écrit la porte-parole de Google, Suzanne Blackburn, dans une déclaration envoyée par e-mail à The Markup. «Nous avons supprimé ces termes de l’outil et nous cherchons à empêcher que cela se reproduise.»

Blackburn a ajouté que ce n’est pas parce que quelque chose a été suggéré par l’outil de planification des mots clés que les annonces utilisant cette suggestion auraient été approuvées pour les annonces diffusées aux utilisateurs des produits Google. La société n’a pas expliqué pourquoi les recherches sur «Filles blanches» et «Garçons blancs» dans le planificateur de mots clés ne renvoyaient aucun résultat suggéré.

A lire :  Cecotec Conga 1790 Vital, Titanium et Ultra: jusqu'à 2200 Pa d'aspiration pour les nouveaux robots aspirateurs Cecotec

Google a déjà fait face à ce problème par le passé

Il y a huit ans, Google a été publiquement honteux pour ce même problème dans son moteur de recherche phare. Le professeur Safiya Noble de l’UCLA a écrit un article pour le magazine Bitch décrivant comment les recherches sur les «filles noires» faisaient régulièrement apparaître les sites pornographiques parmi les meilleurs résultats. «Ces résultats des moteurs de recherche, pour les femmes dont l’identité est déjà décriée dans les médias, ne font qu’affaiblir et éroder davantage les efforts de reconnaissance sociale, politique et économique et de justice», écrit-elle dans l’article.

Dans l’article, Noble a expliqué comment, pendant des années, elle disait à ses élèves de rechercher «Filles noires» sur Google, afin qu’ils puissent voir les résultats par eux-mêmes. Elle dit que les étudiants étaient constamment choqués de voir à quel point tous les meilleurs résultats étaient pornographiques, alors que les recherches de «filles blanches» ont donné plus de résultats PG.

Google a rapidement résolu le problème, bien que la société n’ait fait aucune déclaration officielle à ce sujet. Désormais, une recherche sur “Filles noires” renvoie des liens vers des groupes à but non lucratif tels que Code des filles noires et Black Girls Rock.

Mais l’association n’a pas changé dans le portail d’achat d’annonces jusqu’à cette semaine, a constaté The Markup.

Lorsque The Markup a saisi “Black girls” dans le planificateur de mots clés, Google a renvoyé 435 termes suggérés. Le propre filtre pornographique de Google a signalé 203 des mots clés suggérés comme “idées pour adultes”. Bien que la manière exacte dont Google définit une «idée adulte» ne soit pas claire, le filtrage suggère que Google savait que près de la moitié des résultats pour «filles noires» étaient des adultes.

Bon nombre des 232 termes restants auraient également conduit à la pornographie dans les résultats de recherche, ce qui signifie que le filtre «idées pour adultes» n’était pas complètement efficace pour identifier les termes clés liés au contenu pour adultes. Le filtre permettait d’utiliser des termes clés suggérés tels que «filles noires suçant d—», «poussins noirs blancs d—» et «Piper Perri Blacked». Piper Perri est une actrice adulte blanche et Blacked est une société de production porno.

“Dans l’outil, nous filtrons les termes qui ne sont pas conformes à nos règles en matière d’annonces”, a déclaré Blackburn. ” Et par défaut, nous filtrons les suggestions de contenu pour adultes. Ce filtre n’a manifestement pas fonctionné comme prévu dans ce cas et nous travaillons à mettre à jour nos systèmes afin que les mots clés suggérés ne soient plus affichés. ”

Le racisme intégré dans les algorithmes de Google a une longue histoire.

Un 2013 papier par Latanya Sweeney, professeur à Harvard, a constaté que la recherche de noms traditionnellement noirs sur Google était beaucoup plus susceptible d’afficher des publicités pour les enregistrements d’arrestation associés à ces noms que les recherches de noms traditionnellement blancs. En réponse à une revue technologique du MIT article à propos du travail de Sweeney, Google a écrit dans un communiqué que son système de publicité en ligne «ne procède à aucun profilage racial» et qu’il «appartient aux annonceurs individuels de décider quels mots-clés ils veulent choisir pour déclencher leurs annonces».

A lire :  Le réalisateur Sean Baker nie avoir réalisé un film OnlyFans avec Bella Thorne

Cependant, l’une des sociétés de vérification des antécédents dont les publicités sont apparues dans les recherches de Sweeney a insisté pour que la publication: «Nous n’avons absolument aucune technologie en place pour même associer un nom à une race et nous n’avons jamais tenté de le faire.»

En 2015, Google a fait l’objet de controverses lorsque son service Photos a trouvé étiqueter des images de Noirs comme des gorilles, favorisant un stéréotype raciste de longue date. Google s’est rapidement excusé et a promis de résoudre le problème. Cependant, un rapport by Wired, trois ans plus tard, a révélé que la solution de l’entreprise était d’empêcher toutes les images étiquetées comme étant des «gorilles» d’afficher les résultats de recherche sur le service. «La technologie d’étiquetage d’image est encore précoce et, malheureusement, elle est loin d’être parfaite», a déclaré un porte-parole de l’entreprise à Wired.

L’année suivante, des chercheurs au Brésil découvert que la recherche de photos de «belle femme» sur Google était beaucoup plus susceptible de renvoyer des images de Blancs que de Noirs et d’Asie, et que la recherche de photos de «femme laide» était plus susceptible de renvoyer des images de Noirs et d’Asie que de Blancs.

«Nous avons apporté de nombreux changements à nos systèmes pour nous assurer que nos algorithmes servent tous les utilisateurs et réduisent les représentations problématiques des personnes et d’autres formes de résultats offensants, et ce travail se poursuit», a déclaré Blackburn à The Markup. «De nombreux problèmes dans ce sens ont été résolus par nos efforts continus pour améliorer systématiquement la qualité des résultats de recherche. Nous avons une équipe permanente et entièrement dotée de personnel dédiée à ce défi depuis plusieurs années.

LaToya Shambo, PDG de la société de marketing numérique Black Girl Digital, affirme que l’association de Google entre les «filles» noires, latines et asiatiques avec la pornographie ne faisait en réalité qu’un miroir sur Internet. Les algorithmes de Google fonctionnent en grattant le Web. Elle dit que les sociétés pornographiques ont probablement fait un travail plus efficace en créant du contenu que Google peut associer aux «filles noires» que les personnes qui créent du contenu non pornographique parlant des intérêts des jeunes femmes noires.

A lire :  Android 11 brise YouTube

“Il n’y a tout simplement pas assez de contenu éditorial en cours de création pour qu’ils puissent l’explorer et le présenter”, a-t-elle déclaré. Google, a-t-elle déclaré, devrait modifier son algorithme de planificateur de mots clés. “Mais dans le même souffle, les créateurs de contenu et les entreprises appartenant à des Noirs devraient créer du contenu et utiliser les mots-clés les plus appropriés pour générer du trafic.”

Blackburn, le porte-parole de Google, a convenu que, étant donné que les produits de Google incorporent constamment des données du Web, les préjugés et les stéréotypes présents dans la culture plus large peuvent être intégrés dans ses algorithmes. «Nous comprenons que cela peut causer du tort aux personnes de toutes races, sexes et autres groupes qui peuvent être affectés par de tels préjugés ou stéréotypes, et nous partageons notre inquiétude à ce sujet. Nous avons travaillé, et continuerons de travailler, pour améliorer les résultats d’image pour tous nos utilisateurs », a-t-elle déclaré.

Elle a ajouté que l’entreprise a un section de son site Web dédié à détailler ses efforts pour développer des pratiques responsables autour de l’intelligence artificielle et de l’apprentissage automatique.

Pour Noble, qui a publié en 2018 un livre intitulé “Algorithmes d’oppression” qui examine la myriade de façons dont les systèmes techniques complexes perpétuent la discrimination, il reste des questions majeures quant à la raison pour laquelle les moteurs de recherche ne reconnaissent pas et ne mettent pas en évidence les communautés de couleur en ligne dans leurs algorithmes.

«J’avais constaté que la plupart des façons dont la culture noire était représentée en ligne n’étaient pas la façon dont les communautés se représentaient elles-mêmes», a déclaré Noble à The Markup. “Il y avait toutes sortes de communautés noires en ligne et les moteurs de recherche ne semblaient pas tout à fait se synchroniser avec cela.”

Bien que le travail de Noble se concentre sur les «filles noires», elle craint que, parce que la même dynamique de sexualisation existe dans des recherches telles que «filles latines» et «garçons asiatiques», le même problème apparaît dans l’écosystème de produits de Google sur la plus grande partie d’un décennie, le problème peut être très profond.

«Google fait de la recherche depuis 20 ans. Je ne suis même pas sûr que la plupart des ingénieurs là-bas sachent quelle partie du code corriger », dit-elle. «Vous entendez cela lorsque vous parlez aux ingénieurs de nombreuses grandes entreprises technologiques, qui disent ne pas vraiment savoir comment cela fonctionne. Ils ne savent pas comment y remédier. »

45secondes est un nouveau média, n’hésitez pas à partager notre article sur les réseaux sociaux afin de nous donner un solide coup de pouce. 🙂

Les jeux vidéo violents ne font pas d’enfants violents selon une étude

Spider-Man: Far From Home, la suite repoussée d’un mois ?