Tech&Co Intelligence artificielle
Intelligence artificielle

Les fausses informations générées par une IA plus dangereuses que celles des humains?

Une étude suisse montre que les personnes confrontées à une fausse information pensent davantage qu'elle est vraie si elle a été écrite par une intelligence artificielle.

Les mensonges de l'intelligence artificielle semblent plus réels que les nôtres. L'université de Zurich s'est intéressée à la perception des fausses informations, alors que l'IA est en plein essor. Dans une étude parue dans le magazine Science Advances, trois chercheurs ont mis en évidence que les fausses informations sont davantage crues si c'est un modèle d'IA qui les rédige.

Pour obtenir ce résultat, ils ont exposé 697 personnes à des publications Twitter, détaille le site du MIT Technology Review. L'étude a utilisé le modèle de langage GPT-3 pour générer dix tweets vrais et dix autres faux. Le panel a également été exposé à de véritables messages publiés sur Twitter. Là encore en partie vrais et en partie faux.

Des résultats qui s'aggraverait avec GPT-4

Les résultats de l'étude montrent que les participants étaient 3% moins enclins à croire les faux tweets rédigés par des humains plutôt que ceux rédigés par GPT-3. Les chercheurs ne sont pas parvenus à identifier clairement la cause de cette perception. Ils pointent toutefois la manière dont le logiciel ordonne l'information.

"Le texte de GPT-3 a tendance à être un peu plus structuré que le texte organique (écrit par l'homme)", explique Giovanni Spitale, l'un des chercheurs de l'étude au MIT Technology Review. "Mais il est également condensé et donc plus facile à traiter."

Giovanni Spitale estime que cette même étude serait encore plus significative si elle était réalisée avec la dernière version du modèle d'IA d'OpenAI, GPT-4.

"Le fait que la désinformation générée par l'IA soit non seulement moins chère et plus rapide, mais plus efficace me donne des cauchemars", a ainsi assuré Giovanni Spitale.

Déjà, la version 3,5 du générateur de texte de la société, qui a servi de support à ChatGPT, avait été plusieurs fois été épinglée pour sa capacité à produire des fausses informations. Depuis, une enquête de Newsguard a révélé qu'une cinquantaine de sites d'information utilisent l'IA pour créer leur contenu, avec des fausses informations à la clé.

Pierre Monnier