BFMTV
États-Unis

Comment Facebook fait face au sexe, à la violence et au terrorisme sur son réseau

Facebook.

Facebook. - AFP

Le quotidien britannique The Guardian a enquêté sur ces règles éthiques édité par le réseau social. Un corpus complexe qui prend parfois en défaut les modérateurs chargés de l'appliquer.

Avec deux milliards d'utilisateurs, le continent Facebook se doit d'avoir des règles de conduite morale afin que les gens mal intentionnés ne puissent pas poster n'importe quoi. Tout en respectant une légitime liberté d'expression et d'opinion. L'équation n'est pas facile à tenir et c'est pourquoi les modérateurs du réseau social peuvent se référer à des manuels pour distinguer ce qui doit être ou non censuré.

Ces règles de modération sont un secret bien gardé, mais le quotidien britannique The Guardian a épluché une centaine de ces manuels pour en tirer les principes directeurs et les exemples applicatifs parfois paradoxaux, qui président au délicat exercice de régulation des contenus mis en ligne.

Facebook, plus grand censeur au monde

C'est un fait, beaucoup considèrent Facebook comme un éditeur à part entière qui ne peut se retrancher derrière la responsabilité des seuls utilisateurs. Là où le bât blesse, c'est que ces règles ont un caractère discrétionnaire. Et qu'elles ne procèdent nullement d'un débat démocratique ou même public.

Mais plus encore, le média est confronté à une surabondance de données à traiter qui pose problème. "Facebook ne parvient pas à garder le contrôle de ses contenus. Il est devenu trop gros, trop vite", déplore une source citée par le quotidien.

Des exemples qui pourraient faire polémique

De son examen des sources, The Guardian a extirpé quelques préceptes généraux, applicables à telle ou telle difficulté et mis en exergue des paradoxes:

"Les remarques comme "Que quelqu'un abatte Trump", devraient être supprimées, car en tant que chef d'Etat, le président s'inscrit dans une catégorie protégée. En revanche, il peut être permis de dire: "Pour briser le cou de cette garce, assurez-vous d'appliquer toute votre pression au milieu de sa gorge", ou "va te faire foutre, vas mourir", car ces expressions ne sont pas considérées comme des menaces crédibles.

Les vidéos de décès violents, bien que marquées comme perturbatrices, ne doivent pas toujours être supprimées, car elles peuvent aider à prendre conscience de problèmes tels ceux induits par des maladies mentales.

Certaines photos d'abus physiques non sexuels et d'intimidation d'enfants ne doivent pas être supprimées à moins qu'il y ait un élément sadique ou festif.

Les photos d'abus d'animaux peuvent être partagées, à moins qu'il ne s'agisse d'images extrêmement dérangeantes ne peuvent être qualifiées de "perturbatrices".

Tout l'art "fait à la main" qui montre la nudité et l'activité sexuelle est autorisé, mais non l'art digital de même nature.

Les vidéos d'avortements sont autorisées, pourvu qu'il n'y ait pas de nudité.

  • Facebook laisse libre les gens de pratiquer l'automutilation, car il "ne veut pas censurer ou punir les personnes en détresse". Sans oublier l'utilité du réseau qui permettra le cas échéant de venir très concrètement en aide à celle ou celui qui lance un appel au secours.

Toute personne ayant plus de 100.000 abonnés sur une plate-forme de médias sociaux est désignée comme une figure publique - ce qui lui interdit toute la protection accordée aux particuliers."

  • De ces exemples, on peut tirer l'enseignement que Facebook paraît à certains égards très permissif face à certains messages de haine ou de violence, tant que ceux-ci gardent un caractère plus ou moins abstrait ou vague. Comme le souligne 01Net.com, Mark Zuckerberg (le patron de Facebook) a récemment annoncé l’embauche de 3.000 personnes qui viendront s’ajouter aux 4.500 modérateurs déjà en poste. Pas sûr, que cela suffise à totalement éteindre les controverses.
David Namias