Tech&Co
Twitter

Annecy: pourquoi les réseaux sociaux peinent tant à supprimer les vidéos de l'attaque

Les vidéos de l'attaque d'Annecy circulent toujours sur Twitter. Entre défauts de modération et multiplicité des contenus, la tâche pour les supprimer est rendue compliquée.

Plus de 24h après l'attaque au couteau qui a eu lieu à Annecy le 8 juin, des vidéos continuent de circuler sur Twitter. Malgré des demandes de retirer les contenus et les filtres, il reste facile de contourner les algorithmes.

Le Ministre délégué chargé de la Transition numérique et des Télécommunications, Jean-Noël Barrot, déclarait jeudi sur Twitter que "le gouvernement est en lien avec les équipes de Twitter France pour assurer le retrait de toute image choquante".

Camille Chaize, porte-parole du ministère de l'Intérieur, invitée jeudi soir de TMC, reconnaissait pourtant que le retrait "n'est pas fait", "c'est toujours compliqué", a-t-elle concédé.

Dans les faits, les gouvernements n'ont pas vraiment de marge de manœuvre face aux plateformes. Et si ces vidéos sont toujours présentes, cela est lié à deux facteurs selon Olivier Ertzscheid, enseignant-chercheur en sciences de l'information et de la communication à l'université de Nantes, interrogé par Tech&Co.

D'un côté, il y a le défaut de modération et le manque de volonté de Twitter pour supprimer ces vidéos. "Cela s'explique notamment par les licenciements des équipes de modération et même si celles-ci n'ont jamais été très nombreuses, ce n'est pas la priorité de Twitter", explique-t-il. "La modération humaine est largement insuffisante en termes d'effectifs".

De l'autre, il est compliqué de supprimer une bonne fois pour toutes ces vidéos "car il est facile de tromper les algorithmes", poursuit le chercheur.

Les algorithmes ne détectent pas si une même vidéo, mais dans une version un peu différente, a été publiée. "Cela trompe le système d'identifiant unique associé à chaque vidéo". Par exemple, si une vidéo d’origine est redécoupée de quelques secondes puis republiée, l’algorithme de Twitter n’est pas capable de reconnaître qu’à la base il s'agissait une vidéo violente supprimée une première fois. De même avec un changement de musique.

"Trouble et opaque"

Autre défaut dans les algorithmes de Twitter, "ils ont tendance à détecter en priorité la viralité d'une vidéo plutôt que son contenu".

Une vidéo violente aura tendance à faire davantage réagir les utilisateurs et sera proposée dans le fil "pour vous". "Les réseaux sociaux sont avant tout une communauté d'émotion", rappelle Olivier Ertzscheid.

Concernant la modération, "le processus interne reste assez trouble et opaque". L'algorithme est faillible, il analyse image par image et ne prend pas en compte le contexte. Malgré les nombreux signalements des vidéos de l'attaque, Twitter peut considérer qu'elles n'enfreignent pas les règles de la plateforme. L'algorithme peut prendre cela pour une scène de film.

Sur Facebook, la modération peut-être plus difficile si par exemple il s'agit d'une capture vidéo et rend la détection d'un contenu violent plus compliqué.

La relation entre le gouvernement, qui appelle Twitter à faire le nécessaire, et les plateformes relève avant tout du "pouvoir discrétionnaire". L'action de retrait de ces contenus tient à la responsabilité des plateformes. A noter que celles-ci peuvent être poursuivies si elles n'ont pas supprimé un contenu manifestement illicite qui a été signalé.

Olivier Ertzscheid regrette que des plateformes comme Pharos ne compte que 60 personnes. "Un fonctionnement totalement indigent au regard des enjeux", s'agace-t-il.

Il souligne en revanche que le Digital Services Act pourrait faire avancer les choses du point de vue de l'obligation des plateformes à l'égard des Etats.

Margaux Vulliet