Tech&Co Intelligence artificielle
Intelligence artificielle

Un faux Joe Biden généré par l'IA inquiète en pleine campagne présidentielle américaine

L'intelligence artificielle générative pourrait une nouvelle fois être impliquée dans une entreprise de déstabilisation, à quelques heures des primaires du New Hampshire.

Depuis quelques jours, un appel retentit régulièrement chez les habitants du New Hampshire, et celui-ci délivre un message de la part de Joe Biden, le président américain, leur demandant de ne pas aller voter ce mardi 23 janvier. Ce mercredi, l'État américain doit en effet procéder à l'élection du candidat démocrate à la présidentielle américaine - tout comme du côté des républicains.

Problème: cet appel qui reprend la voix de Joe Biden est faux, et pourrait avoir été créé par l'intelligence artificielle générative, révèle NBC News. L'information a été confirmée par le procureur général du New Hampshire, qui dénonce une apparente "tentative illégale" visant à bousculer les votes des primaires.

"Tous les signes indiquent qu'il s'agit d'un deepfake," explique Ben Colman, responsable chez Reality Defender, une société spécialisée dans le test de fichiers multimédias pour voir s'ils ont été modifiés par de l'IA.

Un faux Joe Biden au téléphone

Depuis l'apparition des deepfakes à une échelle plus large, les autorités ont commencé à légiférer sur le sujet, notamment afin d'éviter que les élections américaines ne soient potentiellement bousculées par de fausses vidéos ou appels de ce genre.

Si les techniques de deepfake se sont améliorées, rendant leur découverte plus difficile qu'avant, la législation, elle, met du temps à arriver, notamment quand elle concerne l'intelligence artificielle. La technique de l'appel d'un candidat via un message pré-enregistré est d'ailleurs monnaie courante aux Etats-Unis, sans que cela ne passe par un deepfake.

Le candidat peut ainsi avoir réellement enregistré un message qui sera ensuite diffusé par téléphone. Dans le cas de ce faux Joe Biden, il est donc d'autant plus difficile de prouver qu'il ne s'agit pas du candidat, là où une fausse vidéo permet généralement de déceler certaines erreurs - notamment au niveau des yeux.

Un chatbot imitant un candidat banni

L'information paraît quelques heures à peine après le bannissement, par OpenAI, d'un chatbot utilisant ChatGPT, et qui imitait un des candidats démocrates dans le New Hampshire, Dean Phillips. Conscient de ce que cela peut représenter comme risque, la société dédiée à l'intelligence artificielle est allée jusqu'à bannir la start-up à l'origine du projet.

Un projet qui avait été développé pour le compte de deux entrepreneurs, soutiens du candidat, mais qui n'est tout simplement pas autorisé par OpenAI, en raison du risque que cela peut faire poser sur le bon fonctionnement des élections.

Les développeurs concernés expliquent au Washington Post n'avoir jamais voulu tromper les utilisateurs, ajoutant notamment des avertissements au moment où l'on commence à converser avec Dean.bot.

Sylvain Trinel