Tech&Co
Vie numérique

IA: les 3 techniques les plus redoutées pour manipuler les électeurs

L'enjeu de contrer la prolifération des deepfakes est d'autant plus cruciale en 2024, année record en termes de nombre d'élections organisées dans le monde.

L'an passé, le Forum économique mondial pointait dans son rapport le risque de perturbation grandissant de la désinformation sur le fonctionnement de la démocratie. Des craintes d'autant plus marquées en 2024, alors que la moitié de la population mondiale vit dans des pays où auront lieu des élections.

Si ces risques sont déjà bien connus, notamment depuis les présidentielles américaines de 2016, l'intelligence artificielle (IA) a permis de passer cette désinformation au niveau supérieur, avec des niveaux de réalisme toujours plus bluffants. Ce qui pousse de nombreux gouvernements à sonner l'alarme à l'approche des scrutins - en particulier européens puis américains.

En septembre dernier, un groupe bipartisan de sénateurs américains a soumis l'idée de tout bonnement interdire les contenus "trompeurs générés par l'IA" dans toutes les communications politiques. L'agence britannique chargée de la sécurité des informations (GHCQ) se prépare déjà à l'arrivée de "bots hyperréalistes créés par l'IA" lors de la prochaine campagne des législatives.

L'Europe aussi souhaite ériger son propre garde-fou en s'appuyant sur son nouveau règlement sur les services numériques (DSA): la Commission européenne a exigé récemment des explications aux grandes plateformes (dont Tiktok, Google, Youtube ou X) sur la manière dont ils gèrent les risques liés à la diffusion de contenus manipulés.

Voici les 3 techniques les plus redoutées pour manipuler les électeurs.

· Les social bots ou l'illusion de foule pour polariser les débats

Concrètement, les social bots sont des programmes informatiques capables d'automatiser des tâches précises comme des retweets, des likes, des follows… Cette pratique officieuse consistant à gonfler la visibilité de messages à l'aide de "faux followers" n'est pas une nouvelle. En janvier 2018, le New York Times publiait déjà une enquête sur Devumi, l’un des plus grands vendeurs de faux comptes à de nombreuses personnalités publiques qui souhaitent booster artificiellement leur notoriété en ligne.

Empruntée du marketing, cette technique d'automatisation de plusieurs comptes à la fois a aussi joué un rôle majeur dans la déstabilisation des élections américaines de 2016. Selon une étude quantitative sur le sujet, on estime qu'au moins 15% de l'ensemble des interventions sur X (Twitter) pendant cette période auraient été réalisées par des bots.

D'autres enquêtes ont pu révéler l'existence de centaines de faux comptes d'utilisateurs américains créés par la Russie pour partager en masse du contenu hostile à la candidate démocrate Hillary Clinton sur Twitter et Facebook. Robert Mueller, alors procureur spécial chargé d’enquêter sur cette affaire, avait aussi dénoncé l’ingérence du Kremlin visant à faire basculer l’élection américaine au profit de Donald Trump.

L'objectif: polariser le débat autour de sujets clivants et booster la visibilité de faux contenus à coups de sponsoring publicitaire. Et dans certains cas, ces actions ciblées peuvent même avoir une incidence concrète. C'est ainsi, par exemple, que des trolls russes ont réussi en mai 2016 à provoquer un rassemblement de suprémacistes à Houston (Texas), sans même que ces derniers ne se sachent manipulés.

Cette technique s'appelle l'astroturfing et consiste à influencer l’opinion publique en cultivant l’illusion d’un phénomène de masse en ligne, une fausse mobilisation citoyenne montée de toutes pièces. Et grâce à l'IA et l'analyse des données comportementales (cf: scandale Cambridge Analytica), le risque de manipulation des foules de citoyens n'a jamais été aussi sérieux.

En noyant l'information de faux contenus, les trolls peuvent semer le doute dans l'opinion publique et créer la dissenssion. Et cela semble fonctionner: selon une étude de septembre 2023 de l'Université de College Cork - sur plus de 1200 tweets abordant la guerre en Ukraine, les internautes seraient de plus en plus sceptiques quant à la véracité du contenu, même si celui-ci se révèle être authentique.

· Les deepfakes audios pour mieux tromper les électeurs

Plusieurs personnalités politiques américaines ont partagé récemment avoir eu recours à l'intelligence artificielle pour automatiser la diffusion de leurs messages de campagne par téléphone. C'est le cas de Peter Dixon, qui a utilisé l'IA Jennifer (développé par la startup Civox) pour convaincre des électeurs californiens de voter pour lui lors des primaires démocrates, ou encore Shamaine Daniels, candidate démocrate en Pennsylvanie avec l'IA Ashley.

"Ashley nous permet de connaître les sujets qui comptent réellement pour les gens. On s’assure ainsi que les messages que l’on porte sont les bons, que cela intéresse les électeurs. Et puis, ça libère du temps à mon équipe de campagne pour des choses plus importantes", explique Shamaine Daniels sur TF1.

Une méthode aussi déployée à des fins malveillantes: dans le New Hampshire, des électeurs ont reçu de faux messages vocaux de Joe Biden les incitant à ne pas voter. Si bien qu'une action en justice vient tout juste d'être déposée contre Steve Kramer, consultant politique de l'équipe rivale de Joe Biden à l'origine de ces appels.

Autre exemple, cette fois-ci 48 heures avant les élections législatives en Slovaquie à l'automne dernier: un faux enregistrement vocal mettait en scène le candidat Michal Simecka en train de parler avec une journaliste d'achat de voix et de trucage des résultats du scrutin.

Au Royaume-Uni également, un faux enregistrement audio du chef du parti travailliste Keir Starmer a été diffusé en octobre dernier par un compte anonyme sur X. L'extrait, écouté plus d'un million de fois, reproduit la voix du politique et dévoile de fausses injures qu'il aurait proférées à l'égard de ses propres employés.

ElevenLabs, Resemble AI, Voice AI, Replica Studio, Vall-E… Le marché de la synthèse vocale est très riche et enrichit de plus en plus sa base de données sur les voix de personnalités publiques. Plusieurs de ces entreprises s'emparent du problème, à l'image d'OpenAI qui, en janvier, a banni le développeur d'un bot imitant la voix du candidat démocrate américain Dean Philips pour simplement délivrer des détails du programme du prétendant à la Maison Blanche. Dernièrement, Midjourney a également décidé de bloquer la création d'images de Joe Biden et Donald Trump.

· La manipulation de l'image grâce à l'IA

Tout le monde connaît ces fausses photos du pape en doudoune ou d'Emmanuel Macron en éboueur, générées à partir de Midjourney. Si la démarche est ici plus "divertissante" que désinformante, les dérives n'ont pas tardé à se manifester. Début mars, la BBC révélait que plusieurs partisans du camp pro-Trump avaient massivement diffusé de fausses photos du candidat entouré de militants noirs. Un moyen de prouver la proximité du candidat avec la communauté afro-américaine.

De l'autre côté du Pacifique, un deepfake vidéo de l'actuel Président de la république de Corée a été monté à partir d'extraits de discours de la campagne présidentielle de 2022.

"Je suis Yoon Suk-yeol, je soutiens des lois qui harcèlent les Coréens. Je suis incompétent et corrompu, mon gouvernement est celui de privilégiés corrompus. Je suis Yoon Suk-yeol, j'ai complètement ruiné la République de Corée et fait souffrir les Coréens à cause de mon idéologie dépassée", peut-on entendre dans ce passage devenu viral en Corée du Sud.

En Europe cette fois-ci, c'est le Premier ministre britannique Rishi Sunak qui a été pris pour cible. Au total, plus d'une centaine de vidéos deepfakes ont été sponsorisées sur Facebook entre le 8 décembre 2023 et le 8 janvier 2024, rapporte The Guardian. La France n'est pas non plus épargnée: la députée écologiste Marie-Charlotte Garin a par exemple publié sur X en décembre dernier une vidéo deepfake d'Emmanuel Macron s'adressant lors de faux "voeux aux Français" et justifiant par exemple sa "décision de ne pas ouvrir 10.000 places supplémentaires en hébergement d'urgence a été motivée par des considérations budgétaires".

Quelques semaines plus tard, c'est au tour du porte-parole de Renaissance, Loïc Signor, de diffuser une vidéo détournant les vœux de Marine Le Pen, s'exprimant exclusivement en russe.

Dans un autre registre, le média France 24 a été victime en février d'une intox vidéo, relayée notamment des sites de propagande russe. Le montage via IA prétend que France 24 a annoncé qu'Emmanuel Macron a été la cible d’une tentative d’assassinat lors d'une visite prévue en Ukraine.

Si déceler une fausse vidéo se trouve en pratique plus simple que démasquer un montage photo, les nouveaux modèles d'IA générative pourraient très bien jouer sur les deux tableaux. Les récentes vidéos ultraréalistes générées par Sora (OpenAI) en ont par exemple bluffé plus d'un, prouvant qu'il sera sans doute plus difficile demain de déceler le vrai du faux.

Pierre Berthoux