back to top

Des salariés de Facebook s'organisent en secret contre les fausses infos

Le groupe tente de remettre en cause son PDG Mark Zuckerberg, qui a affirmé que la plate-forme n'était en aucun cas responsable de l'élection de Donald Trump.

Publié le

SAN FRANCISCO – Des salariés de Facebook s'organisent pour dénoncer le rôle joué par leur entreprise dans la promotion de fausses actualités ayant aidé à la victoire de Donald Trump. Cette contestation s'inscrit dans un débat national plus large aux États-Unis sur l'augmentation des articles mensongers et trompeurs sur Facebook, qui est utilisé par plus de 150 millions d'Américains.

Le groupe de travail, dont des sources ont indiqué à BuzzFeed News qu'il est composé d'employés de toute l'entreprise, a déjà remis en cause une déclaration de Mark Zuckerberg lors d'une conférence la semaine dernière. Ce dernier avait affirmé que penser que les actualités mensongères sur Facebook avaient eu un impact sur l'élection était «une idée complètement folle».

«Il balaie la question alors qu'il sait très bien que des fausses actualités ont déferlé sur notre plate-forme.»

«Ce n'est pas une idée folle. Ce qui est fou, c'est qu'il balaie la question comme ça, alors qu'il sait très bien, tout comme les employés de l'entreprise, que des actualités mensongères ont déferlé sur notre plate-forme pendant toute la campagne», estime un ingénieur de Facebook. Comme les quatre autres employés qui ont parlé de cette histoire à BuzzFeed News, il a demandé à rester anonyme. D'après ces cinq salariés, leurs supérieurs leur ont demandé de ne pas parler à la presse. Ils craignent donc de perdre leur travail si leurs noms étaient révélés.

Une liste de recommandations à venir

Ils ont refusé de fournir trop de détails sur leur groupe de travail. L'un d'eux a précisé que «plus d'une dizaine» de salariés étaient impliqués, et qu'ils s'étaient rencontrés deux fois au cours des six derniers jours. À l'heure qu'il est, ils se réunissent en secret afin que les membres du groupe puissent parler librement, sans craindre d'être condamnés par leur direction. Le groupe projette de rendre ses réunions plus formelles et de dresser à terme une liste de recommandations pour la direction de Facebook.

Si l'équipe de travail en question reste restreinte, un autre salarié de Facebook a déclaré que des «centaines» d'employés du réseau social avaient exprimé leur mécontentement face à la position officielle sur les actualités mensongères, et sont prêts à soutenir des actions qui dénoncent cette position.

Facebook n'a pas répondu aux demandes d'interview de BuzzFeed News, mais un porte-parole du réseau a déclaré la semaine dernière:

«Si Facebook a bien joué un rôle dans cette élection, les électeurs ont reçu des informations de diverses autres façons; Facebook n'est qu'un des nombreux médias grâce auxquels les gens se sont sentis proches de leurs leaders, se sont investis dans le processus politique et ont partagé leurs opinions.»

Après la victoire de Trump, des analystes se sont interrogés sur la responsabilité de Facebook, vu la quantité d'informations erronées diffusées sur le réseau, et vu son incapacité à sévir contre le partage de ces informations mensongères. D'après une récente étude du Pew Research Center, près de la moitié des adultes américains utilisent Facebook comme source d'actualités.

D'après une enquête menée par BuzzFeed News, les trois plus importantes pages de gauche ont publié des informations fausses ou erronées dans près de 20% de leurs publications, tandis que ce genre d'informations représente 38% des publications des trois plus importantes pages de droite. Voici ce que conclut l'enquête:

«Le meilleur moyen d'attirer l'attention sur du contenu politique sur le plus grand réseau social du monde, c'est d'éviter de rapporter des faits, et de plutôt jouer sur les préjugés partisans en utilisant des informations fausses ou erronées qui disent aux gens ce qu'ils veulent entendre.»

Ou, comme l'a écrit l'ancien salarié Bobby Goodlatte sur son propre mur Facebook, le 8 novembre:

«Malheureusement, le fil d'actualité optimise l'engagement. Comme cette élection nous l'a appris, les conneries sont hautement engageantes. Tendre vers la vérité n'est pas impossible. Wikipédia, par exemple, tend vers la vérité malgré un large public. Mais il est désormais clair que la démocratie trinque quand notre source d'informations met en avant des conneries.»

Les personnes du groupe ayant parlé à BuzzFeed News ont dit être en train de regarder si Facebook avait consacré assez de ressources pour répondre aux signalements d'actualités fausses, et si le réseau a utilisé efficacement les paramètres qui analysent automatiquement la plate-forme pour détecter certains types de contenu injurieux.

«On pourrait faire bien plus de choses avec les outils déjà en place sur Facebook pour arrêter les autres contenus injurieux ou dangereux», a affirmé un autre employé de Facebook, ingénieur depuis longtemps pour le réseau:

«On déploie beaucoup d'efforts pour empêcher les internautes de poster du contenu sexuel ou violent, en signalant automatiquement certains sites ou en avertissant les gens qu'ils postent du contenu violant les règles de la communauté.»

Ajoutant que si les utilisateurs de Facebook étaient incités à signaler les informations mensongères, les règles de suppression de ces contenus n'étaient pas claires:

«Si quelqu'un poste un faux article d'actualités, qui prétend que les Clinton emploient des sans-papiers et pousse les gens à être violents contre les sans-papiers, n'est-ce pas dangereux? Est-ce que ça ne viole pas les critères de la communauté?»

Une promesse non tenue

Dans une mise à jour de janvier 2015, Facebook promettait une diminution des actualités mensongères en proposant aux utilisateurs un outil leur permettant de signaler ces actualités dans leurs flux. Près de deux ans plus tard, Facebook a refusé de donner aux journalistes l'accès aux données montrant la fréquence de signalement et/ou de suppression des fausses actualités sur sa plate-forme. Une enquête de BuzzFeed News indique que même quand des informations mensongères sont signalées sur une page Facebook, celles-ci sont simplement déplacées sur une autre.

En mai, Facebook a été l'objet de nombreuses critiques quand différents employés ont affirmé que la section Trending Topics favorisait des sites d'information de gauche. Après ça, Facebook a renvoyé toute son équipe du module Trending Topics, souhaitant plutôt se baser sur un algorithme (néanmoins, comme l'a rapporté BuzzFeed News, des experts ont prévenu que ces algorithmes allaient sûrement accélérer la propagation d'actualités mensongères).

Les mois suivants, Facebook a suscité un débat en supprimant la photo, qui avait remporté un prix Pulitzer, d'une fillette de 9 ans fuyant les bombes au napalm pendant la guerre du Viêtnam, sous prétexte qu'elle violait les règles sur la nudité. Le site avait aussi supprimé une vidéo de sensibilisation au cancer du sein pour les mêmes raisons. Comme l'a rapporté BuzzFeed News, la suppression des posts a été à plusieurs reprises mise sur le compte d'une erreur système, et les publications ont été réintégrées.

«Que ce soit par son design, par ses algorithmes ou par sa politique, Facebook a créé une plate-forme qui amplifie la désinformation», a expliqué Zeynep Tufekci, professeur à l'université de Chapel Hill, en Caroline du Nord. Celui-ci s'est beaucoup exprimé sur le fait qu'il fallait que le réseau social médite sur son rôle dans la diffusion d'actualités mensongères.

Deux managers de Facebook ont expliqué à BuzzFeed News que le signalement d'informations fausses n'était pas pris autant au sérieux que le signalement d'autres contenus violant les critères de la communauté. Ils ont tous les deux déclaré avoir soulevé la question par le passé, et qu'on leur avait alors dit que les «cadres dirigeants» de Facebook se penchaient sur le problème et le prenaient au sérieux.

L'une de ces deux employés nous a expliqué que même si les utilisateurs signalaient certains médias comme mensongers ou relevant du canular, l'entreprise ne prenait pas de mesures assez strictes, en supprimant par exemple ledit contenu ou en définissant ce que sont des actualités mensongères. Elle dit avoir fait part de ses inquiétudes à ses supérieurs, inquiétudes restées sans réponse.

«Les gens savent que certains employés sont inquiets et voient là un gros problème, dit-elle. Et il semble que les personnes décisionnaires ne prennent pas ces inquiétudes au sérieux.»

Le New York Times a rapporté la semaine dernière que les cadres dirigeants de Facebook avaient discuté du problème, et qu'un post Facebook privé, partagé par Mark Zuckerberg la semaine dernière avec un petit groupe d'amis et de collègues, réfutait l'idée que Facebook avait influencé les élections.

Faisant référence à la faible participation aux urnes, Zuckerberg écrit:

«Plutôt que de se concentrer sur les forces ou les faiblesses de données démographiques spécifiques, ou sur d'autres facteurs qui ont pu faire prendre à cette élection une direction ou une autre, ces stats suggèrent clairement ce que beaucoup de gens ont toujours dit. Les deux candidats sont très impopulaires.»

Les employés de Facebook qui ont parlé à BuzzFeed News ont insisté sur le fait qu'ils ne tentaient pas de «prendre position» sur les résultats des élections, mais voulaient faire prendre conscience à Facebook que le réseau social ne devait soutenir aucun candidat politique à travers des actualités mensongères ou erronées.

«Si quelqu'un est de droite et que tous ses amis le sont aussi et que ce sont des actus qu'ils partagent sur Facebook, il s'agit alors d'une bulle qu'ils ont créée pour eux-mêmes, et c'est leur droit», a expliqué l'ingénieur de longue date de Facebook.

«Mais mettre en avant des articles mensongers dans le fil [d'actualité], les promouvoir afin qu'ils soient partagés des millions de fois par les personnes qui croient en leur véracité, est une chose que nous ne devrions pas permettre. Facebook regorge de gens qui nous utilisent pour répandre leurs conneries.»

Sheera Frenkel is a cybersecurity correspondent for BuzzFeed News based in San Francisco. She has reported from Israel, Egypt, Jordan and across the Middle East. Her secure PGP fingerprint is 4A53 A35C 06BE 5339 E9B6 D54E 73A6 0F6A E252 A50F

Contact Sheera Frenkel at sheera.frenkel@buzzfeed.com.

Got a confidential tip? Submit it here.