Tech&Co
Tech

Chez Facebook, les ingénieurs ne comprennent parfois plus leurs propres algorithmes

Dans un rapport interne relayé par Le Monde, d'anciens employés de Facebook décrivent des algorithmes trop complexes qui entravent une modération efficace du réseau social. Le fruit, selon eux, de décisions non-homogènes au sein du groupe.

Pierre angulaire du réseau social, les algorithmes de Facebook se sont lourdement complexifiés au fur et à mesure des années. Un rapport interne à l'entreprise, relayé ce 26 octobre par Le Monde, en précise les rouages.

L'algorithme de Facebook est la "machine" qui décide de ce qui est mis en avant sur le fil d'actualité d'un utilisateur. Le fonctionnement du réseau social se base entièrement sur ce système, qui définit les interactions et l'expérience de chaque personne qui y est inscrite.

Des "scores" hors de contrôle

Au fil des années, il a été modifié, pour optimiser la sélection des publications en fonction de différents critères. Ces critères, très nombreux, composent un "score", précise Le Monde, recensant le nombre d'amis abonnés à une page, le nombre de "J'aime" attribués ou encore l'engagement constaté sur une publication.

C'est ce score qui décide ou non de la récurrence d'apparition d'une publication. Le problème constaté par les ingénieurs de Facebook, et relayé par le quotidien, est la multitude de critères nécessaires pour attribuer le score final sous forme de points, qui "peut dépasser un milliard". Or, sur de tels scores, les outils de modérations de Facebook deviennent inefficaces. Ces derniers laissent alors passer, sans que les ingénieurs ne comprennent pourquoi, des contenus inappropriés, voire délétères pour les utilisateurs.

Selon plusieurs témoignages d'anciens employés, cette situation est la conséquence d'un manque de "vision systémique unifiée", sans que cela soit volontaire de la part de ses dirigeants. Toutefois, la politique générale de Facebook, ces dernières années, semblent tendre vers une politique du profit plutôt que de la sécurité de ses utilisateurs - un constat exprimé et répété par la lanceuse d'alerte Frances Haugen.

Interactions sociales significatives

En 2018, l'algorithme de Facebook a subi une refonte basée sur la promotion des "meaningful social interactions", ("interactions sociales significatives"), à savoir les contenus publiés par les proches des utilisateurs, comme la famille ou les amis proches.

Comme l'a évoqué plusieurs fois Frances Haugen et comme le rappelle Le Monde aujourd'hui, ce changement n'a pas eu l'effet escompté. L'algorithme est devenu une "boite à écho", pour reprendre les termes de la lanceuse d'alerte, amplifiant les contenus extrêmes, et faisant la part belle aux contenus politiques. Soit l'effet contraire de ce qui était recherché.

A ce jour, les ingénieurs ne semblent pas en mesure d'expliquer concrètement les comportements de l'algorithme, ni de pouvoir les modifier efficacement. Pourtant, interrogée par Le Monde, l'entreprise affirme le contraire.

"Le réseau social assure les modifier régulièrement pour les améliorer" et "assure que les sondages qu'il effectue régulièrement auprès de ses utilisateurs lui permettent de détecter rapidement tout problème majeur et de revenir en arrière", expliquent nos confrères du quotidien.

Lever le voile sur les algorithmes

La situation pourrait évoluer. La nouvelle législation sur les services numériques, qui doit émaner de la Commission européenne, va imposer aux réseaux sociaux la transparence sur ces algorithmes et systèmes de modération. Une possibilité qui a d'ailleurs été évoquée par Nick Clegg, vice-Président de Facebook et chargé des communications au sein de l'entreprise.

Les systèmes que nous avons mis en place [...] devraient pouvoir être audités, si nécessaire par le régulateur afin que l’on puisse vérifier si nos systèmes se comportent tels qu’ils annoncent le faire”, a affirmé Nick Clegg sur CNN, le 10 octobre dernier.

Ces révélations s'inscrivent dans le cadre des "Facebook Files", qui ont débuté en septembre avec une série d'articles du Wall Street Journal s'appuyant sur des documents internes fournis par la lanceuse d'alerte et ancienne employée de Facebook Frances Haugen.

Victoria Beurnez