back to top

Voilà pourquoi certains pensent que les résultats sur Google sont racistes

Des internautes ont trouvé des signes de discrimination dans les résultats du moteur de recherche — mais Google dit que ça ne fait que refléter la façon dont les gens cherchent sur internet.

Publié le

Quand Johana Burai, une graphiste suédoise, a commencé à chercher des images de «mains» il y a quelques années, elle a été surprise de constater que presque toutes les mains qu'elle trouvait grâce à Google étaient blanches.

Elle a ensuite cherché des «mains noires» ou des «mains africaines» et elle a constaté que les images trouvées étaient souvent accompagnées de sous-entendus: par exemple, la terre que creusaient ces mains, ou une main blanche tendue pour proposer de l'aide.

En conséquence, elle a lancé le World White Web, qui cherche à empêcher le moteur de recherche de ne montrer que des images de mains blanches, en encourageant les gens à mettre un lien et à partager des images de mains qui ne soient pas blanches, dans l'espoir d'améliorer leur positionnement Google. Au moment où paraît cet article, cela a donné un seul changement.

Les résultats que génère Google sont déterminés par l'algorithme en perpétuelle évolution du moteur de recherche, qui d'après ce que la société déclare sur son site internet utilise plus de 200 «indices» différents pour deviner ce que les gens pourraient être en train de chercher. La popularité de l'image, la fréquence à laquelle elle est partagée, le contexte, c'est-à-dire le texte qui l'accompagne par exemple, et les éléments méta: c'est tout cela qui entre en compte.

Voilà pourquoi, dit Johana Burai à BuzzFeed News, ce projet n'est pas destiné à illustrer un quelconque racisme de la part de Google mais il souhaite plutôt souligner des discriminations sociétales plus importantes qui sont mises en relief par l'algorithme: les résultats de recherche pour d'autres parties du corps et des mots comme «homme», «femme» et «enfant» sont en immense majorité des images de personnes blanches, alors que la majorité de la population mondiale ne l'est pas.

Publicité
https://www.google.fr/search?q=femme&espv=2&biw=1600&bih=791&source=lnms&tbm=isch&sa=X&ved=0ahUKEwj6tKfE9IvMAhVEVBQKHeWiD-wQ_AUIBigB&dpr=0.9
https://www.google.fr/search?q=femme&espv=2&biw=1600&bih=791&source=lnms&tbm=isch&sa=X&ved=0ahUKEwj6tKfE9IvMAhVEVBQKHeWiD-wQ_AUIBigB&dpr=0.9#tbm=isch&q=homme
https://www.google.fr/search?q=femme&espv=2&biw=1600&bih=791&source=lnms&tbm=isch&sa=X&ved=0ahUKEwj6tKfE9IvMAhVEVBQKHeWiD-wQ_AUIBigB&dpr=0.9#tbm=isch&q=enfant

Johana Burai a dit ne pas savoir ce que l'entreprise pouvait faire à ce sujet. «C'est la société qui crée Google, d'une certaine façon», a-t-elle déclaré. «C'est très facile de voir des stéréotypes sur Google. Cela nous apprend beaucoup de choses sur notre société. Si vous n'êtes pas conscient de problèmes comme le racisme structurel, vous ne pouvez pas vous considérer comme anti-raciste.»

Google n'a pas fait de déclaration officielle à propos du projet, mais des sources bien informées au siège de la compagnie à Londres ont confié à BuzzFeed News qu'elles soutenaient le travail de Johana Burai précisément parce qu'il illustrait bien ces problèmes récurrents. Elles ont expliqué que la difficulté venait des préjugés ayant cours dans les médias et sur internet, que l'algorithme du moteur de recherche finissait par refléter.

Au cours des derniers mois, beaucoup d'articles publiés dans les médias sociaux ont souligné la généralisation du problème.

L'année dernière, un utilisateur de Twitter a par exemple découvert qu'une recherche d'images sur Google concernant de «beautiful dreadlocks» montrait en majorité des photos de personnes blanches portant des dreadlocks. Quand on tape en français «belles dreadlocks», on trouve beaucoup d'images avec des personnes blanches, et quelques images avec des personnes non-blanches.

oh my lord. I can't understand. shit. I tried different search terms. i am…just..wow

Publicité

Nombreux sont ceux qui ont souligné que les images montrées par le moteur de recherche semblaient aussi renforcer la prééminence des standards de beauté eurocentriques. L'année dernière, des internautes ont remarqué qu'en cherchant le mot «beauté», on n'obtenait presque aucune photo de personnes de couleur.

Une femme a récemment tweeté qu'elle avait découvert qu'une recherche d'images sur Google concernant des «unprofessional hairstyles for work», c'est-à-dire des «styles de coiffures peu professionnels pour aller travailler», montrait des photos de femmes noires portant leur chevelure naturelle. Alors qu'une recherche concernant des styles «professionnels» montrait en majorité des femmes blanches.

Publicité

I saw a tweet saying "Google unprofessional hairstyles for work". I did. Then I checked the 'professional' ones 🙃🙃🙃

Le problème semble ici dû en partie à l'algorithme et en partie au contexte dans lequel les images sont présentées.

Le moteur de recherche a simplement recueilli sur internet des légendes et des étiquettes contenant le mot «inapproprié» —comme The Guardian l'a souligné; l'algorithme a en effet tiré beaucoup de ces photos de femmes noires, de blogs et d'articles qui «discutaient ouvertement des comportements racistes par rapport aux styles de coiffure, et qui les combattaient».

Quelques-unes de ces photos provenaient par exemple d'un article de Naturally Curly —une plate-forme internet destinée aux femmes ayant des cheveux frisés— qui donnait des conseils de styles de coiffures aux femmes ayant des professions où les cheveux frisés pouvaient être perçus comme «négligés et non professionnels».

Il n'est donc pas évident que l'algorithme donne vraiment aux internautes ce qu'ils recherchent: il est probable que les gens qui souhaitent trouver une image correspondant à ce terme soient plus enclins à rechercher des exemples de coiffures vraiment «non professionnelles», plutôt que ces exemples plus sujets à controverse.

La recherche de termes bien particuliers semble aussi entraîner une discrimination qui découle de la manière dont les internautes occidentaux conduisent leurs recherches. Là où la recherche du mot «femme» montre en majorité des photos de banques d'images, la recherche d'images de «femmes asiatiques» va montrer en majorité des images fétiches et sexualisées provenant de sites de rencontres ou de sites porno, accompagnées de suggestions de Google: «les femmes asiatiques comparées aux femmes blanches» et «femmes asiatiques et hommes blancs».

Publicité

Les biais médiatiques influencent aussi les résultats, étant donné que les reportages sur les crimes sanglants ont plus de chances d'être priorisés par l'algorithme parce qu'ils sont beaucoup regardés et partagés. Un utilisateur de Twitter a découvert que la recherche d'images de «three white teenagers» («trois adolescents blancs») montrait des photos de banques d'images d'adolescents blancs à l'air heureux, alors que la recherche d'images de «three black teenagers» («trois adolescents noirs») montrait des photos d'identité judiciaire.

🤔What the hell is this Google @google

Publicité

Beaucoup d'autres internautes ont remarqué des discriminations dans la fonction saisie semi-automatique de la recherche d'images de Google, ce qui est vraisemblablement dû aux habitudes de recherche en masse. Après avoir tapé «black people are» («les noirs sont...»), les trois principales suggestions sont «fous», «des singes» et «mal élevés». Les trois premiers résultats pour «white people are» («les blancs sont...») sont principalement des recherches pour le même mème («white people are crazy»).

Quand nous avons voulu refaire l'expérience en français, nous avons constaté que Google semblait avoir désactivé les suggestions pour «les noirs sont», mais pas pour «les blancs sont».

Nos sources chez Google ont tenu à préciser que leur société était fière de sa diversité interne, et que les moteurs de recherche comme Bing et Yahoo avaient les mêmes problèmes. Elles ont aussi parlé avec enthousiasme de la banque d'images de Getty, intitulée «Lean In Collection», où figurent des milliers de photos de femmes à des postes de direction.

Un collaborateur a déclaré: «Si les organisations et les sociétés de médias veillent à ce que le contenu qu'elles présentent soit responsabilisant et dénué de préjugés, notre algorithme le reflétera à son tour de façon visible.»

Il y a cependant des problèmes qui vont au-delà des recherches de base. Une étude effectuée en 2013 par Latanya Sweeney, professeur à l'université Harvard, a montré que des résultats de recherche d'annonces publicitaires semblaient «mettre en évidence la "discrimination raciale existant dans la société"».

Latanya Sweeney a découvert que des noms associés à des personnes noires menaient à des annonces proclamant «Arrêté?» qui étaient en lien avec des sites pouvant vérifier les casiers judiciaires. Bien qu'elle n'en ait pas spécifié la cause, elle n'a parlé que de l'algorithme comme raison possible.

On a appris l'année dernière qu'en cherchant «nigga house» («maison du nègre») sur Google Maps, on était dirigé vers la Maison-Blanche.

If you Google Map "nigga house," this is what you'll find. America.

Publicité

À l'époque, Google a déclaré ne pas être sûr de la façon dont ça avait pu se produire. Des sources au sein de la compagnie ont confié à BuzzFeed News qu'elles pensaient que c'était lié à une intrusion malveillante dans l'application Map Maker qui a entraîné son arrêt pratiquement à la même époque l'année dernière.

Toujours est-il qu'un mois plus tard, Google a été forcé de présenter ses excuses après que sa nouvelle application photo —qui utilise un logiciel d'intelligence artificielle pour classer les photos téléchargées par l'utilisateur en catégories— a classé deux personnes noires dans la catégorie «gorille».

Google Photos, y'all fucked up. My friend's not a gorilla.

Dans une déclaration à la BBC, une porte-parole de Google a présenté ses excuses pour cet incident et indiqué que des «mesures immédiates» seraient prises pour empêcher qu'il ne se reproduise.

«Il y a clairement encore beaucoup de travail à faire sur l'étiquetage automatique des images. Nous cherchons comment éviter que ce type d'erreurs ne se produise dans l'avenir», a-t-elle ajouté.

Cependant, Jacky Alciné, qui avait identifié ce problème, a dit à la BBC qu'il se demandait quel genre d'images Google avait utilisé pour amorcer le processus qui avait conduit l'application à donner à deux personnes noires l'étiquette «gorille».

«[Google a] a parlé d'utiliser plus d'images de personnes de couleurs dans ce processus, mais seul le temps pourra nous le confirmer», a-t-il dit.

Fiona Rutherford is a reporter for BuzzFeed News and is based in London.

Contact Fiona Rutherford at fiona.rutherford@buzzfeed.com.

Alan White is a news editor for BuzzFeed News and is based in London.

Contact Alan White at alan.white@buzzfeed.com.

Got a confidential tip? Submit it here.