Tech&Co
Données personnelles

"Société de surveillance": pourquoi la Commission européenne veut analyser nos messages Whatsapp

Un texte visant à lutter contre la pédopornographie en ligne est fustigé par le gendarme européen des données personnelles.

"Un consensus inédit entre les différents experts [...] concernant la dangerosité et l'inefficacité de cette proposition". Ce 23 octobre, le Contrôleur européen de la protection des données (CEPD), une institution indépendante de l’Union européenne, a rendu un avis pour le moins tranché sur le "Child sexual abuse regulation", une proposition de régulation européenne visant à lutter contre la pédopornographie en ligne.

Au sein du texte, une mesure cristallise toutes la majorité des critiques: l'obligation pour toutes les messageries, y compris celles qui sont actuellement chiffrées de bout en bout, d'analyser toutes les conversations des internautes.

Outils d'intelligence artificielle

D'après le projet de régulation, les messageries devraient, d'ici à l'an prochain, mettre en place des outils pour détecter l'échange d'images pédopornographiques et le "'pédopiégeage", à savoir des sollicitations faites à des enfants de la part de pédophiles.

Avec à la clef l'utilisation d'outils basés sur l'intelligence artificielle pour analyser ces contenus, dans le but de détecter une image suspecte ou une conversation problématique. En cas de suspicion, une alerte serait envoyée à une agence européenne dédiée, à des fins d'analyses complémentaires.

"Le principe est le même que pour les chiens entraînés à détecter une odeur explosive spécifique – en recherchant uniquement ce matériau spécifique" résume Anitta Hipper, porte-parole de la Commission européenne pour les affaires intérieures, auprès de Tech&Co.

Lors d'un séminaire public organisé ce 23 octobre, de nombreux experts ont toutefois pointé du doigt l'impossibilité de recourir à de telles analyses sans mettre à mal la vie privée des internautes européens. Des conclusions, que le CEPD reprend dans son communiqué, allant jusqu'à évoquer le risque d'une "société de surveillance".

"Fragiliser le chiffrement"

"Il est techniquement impossible de mettre en place une analyse du contenu [...] sans fragiliser le chiffrement de bout en bout ainsi que la protection de la vie privée de l'utilisateur. Voici la conclusion univoque de centaines de spécialistes et de chercheurs" tranche ainsi le gendarme européen des données personnelles.

Pour rappel, le chiffrement de bout en bout est une méthode permettant de protéger le contenu d'une conversation, qui n'est alors accessible que par les interlocuteurs. La plateforme elle-même n'est ainsi pas capable de mettre la main sur les échanges.

Le service de communication chiffrée de bout en bout le plus connu est Whatsapp, dont la représentante des affaires publiques, Helen Charles, s'est exprimée lors du séminaire. Elle a notamment exprimé ses "inquiétudes concernant l'implémentation" d'une telle solution.

"Nous pensons que toute demande d'analyse des contenus dans une messagerie chiffrée pourrait nuire aux droits fondamentaux" a-t-elle résumé, tout en plaidant pour l'utilisation d'autres techniques, comme le signalement d'utilisateurs mais aussi le suivi du trafic des internautes pour détecter des comportements suspects.

Pour Meta, maison-mère de Whatsapp et de Facebook, le sujet est d'autant plus sensible que l'entreprise promet régulièrement de chiffrer de bout en bout les échanges sur son application Messenger. Une messagerie qui est justement celle où est détecté le plus grand nombre de contenus pédopornographiques, assure la Commission européenne à Tech&Co.

Risque de faux positifs

Parallèlement à l'atteinte inédite à la vie privée, le projet de régulation de l'Union européenne se heurte à d'autres critiques, portant cette fois sur son efficacité. Avec, pour de nombreux spécialistes, le risque d'erreurs d'interprétation de l'intelligence artificielle, et donc de faux positifs.

Dans son étude d'impact, la Commission européenne se vante de pouvoir atteindre un taux de précision de 99,9%. Mais ce chiffre ne vaut que pour l'analyse d'une image qui serait déjà présente dans une base de données et caractérisée comme image pédopornographique. Un procédé qui consiste, de façon plutôt basique, à comparer automatiquement deux clichés entre eux.

En revanche, aucune estimation n'est proposée concernant l'analyse par intelligence artificielle d'images n'apparaissant dans aucune base de données. Dans ce cas de figure, le logiciel serait alors chargé d'une tâche bien plus périlleuse: estimer la nature pédopornographique ou non de chacune des photos partagées par les utilisateurs de Whatsapp.

La Commission évoque enfin un taux de précision de 88% (en faisant référence à une technologie de Microsoft) concernant l'analyse textuelle des conversations. De quoi générer un nombre important de faux positifs, face aux milliards de conversations quotidiennes sur Whatsapp.

Toujours dans son communiqué, le CEPD évoque une efficacité de toute façon limitée en raison du manque de moyens dédiés aux enquêtes liées à la pédopornographie en ligne.

"A l'heure actuelle, les autorités manquent souvent de ressources pour suivre toutes les pistes et mener des enquêtes approfondies", regrette le CPED.

Interrogée par Tech&Co sur l'existence de technologies pouvant montrer leur efficacité tout en respectant la vie privée, Anitta Hipper rappelle que la réglementation européenne n'a pas vocation à "prescrire la technologie à utiliser, en raison du rythme rapide de l'innovation". Si elle est adoptée, cette réglementation pourrait entrer en vigueur en août 2024.

https://twitter.com/GrablyR Raphaël Grably Rédacteur en chef adjoint Tech & Co