Tech&Co
Tech

L'algorithme de Facebook promeut les contenus polémiques, selon un rapport interne

Image d'illustration du logo de Facebook, prise le 7 avril 2021

Image d'illustration du logo de Facebook, prise le 7 avril 2021 - OLIVIER DOULIERY © 2019 AFP

En 2018, Facebook a modifié son algorithme de sélection de contenus du fil d'actualité. Selon des notes internes, cette évolution a entraîné le partage massif de publications toxiques.

Le Wall Street Journal poursuit ses révélations sur le géant Facebook. A la suite de la découverte de rapports internes accablants pour l'entreprise, le journal publie une série d'articles sur les failles du réseau social et de ses filiales.

Après un traitement de faveur sur la modération de certains comptes, et les effets déstrastreux d'Instagram sur les adolescentes, le quotidien économique américain s'attaque à l'algorithme de recommandation du réseau social.

Facebook, comme tout réseau social, fonctionne grâce à un algorithme de recommandation. C'est ce système qui choisit les contenus qui seront présentés à l'utilisateur sur son fil d'actualité.

En 2018, les équipes de Mark Zuckerberg se sont évertuées à parfaire cet outil, en misant sur "les interactions sociales qui ont du sens", c'est-à-dire, entre amis, familles et proches. Dans l'objectif que l'utilisateur consomme moins de contenu "professionnel", qui peut avoir un impact sur la santé mentale. C'est en tout cas l'image publique que le réseau social a donné à sa refonte d'algorithme.

"Désinformation, toxicité, violence"

Dans les faits, les rapports internes obtenus par le Wall Street Journal affirment qu'un groupe de chercheurs au sein de Facebook a mis en lumière que le changement d'algorithme aurait l'effet inverse.

L'algorithme, au lieu de promouvoir des contenus entraînant des effets positifs, a tendance à mettre en lumière, parfois à outrance, des contenus jugés toxiques. Une situation qui pousse les utilisateurs dans des cercles vicieux:

"La désinformation, la toxicité et les contenus violents sont anormalement prévalents dans les contenus repartagés", peut-on lire dans un des mémos relayés par le Wall Street Journal.

"Notre approche a eu des effets collatéraux malsains sur d'importantes parties des contenus, notamment en politique et en actualité. Notre responsabilité est grandissante", poursuit la note.

Les études menées en interne ont conduit à des conclusions sans appel: certains partis politiques ou médias ont orienté leur ligne éditoriale vers le sensationnalisme et l'outrage, pour provoquer de "l'engagement", un terme évoquant les partages, les "likes" ou les commentaires liés à une publication.

"Beaucoup d'interlocuteurs nous ont dit qu'ils craignaient, sur le long terme, les effets négatifs que peut avoir cet algorithme sur la démocratie", s'inquiète un chercheur dans un rapport interne.

Une conclusion loin d'être anodine, après l'explosion des fausses informations lors de l'élection américaine de 2020, puis l'invasion du Capitole en janvier 2021, stimulée par les contenus viraux sur les réseaux sociaux.

Victoria Beurnez