Tech&Co
Actualités

"Et là, c'est devenu très effrayant": ChatGPT est aussi un immense générateur de fausses informations

Le chatbot, d'une efficacité redoutable, est aussi capable d'inventer totalement des informations sur des sujets inexistants, notamment scientifiques.

Après la surprise et les rires, ChatGPT commence à faire grincer des dents. Le chatbot, qui impressionne par sa finesse et son efficacité, s'avère aussi être un immense générateur de fausses informations, surtout dans le domaine de la science.

Sur Twitter, les témoignages se multiplient. Teresa Kubacka, une data scientist, explique avoir interrogé le ChatGPT sur son sujet de doctorat de physique, le multiferroïsme.

"Il a produit des explications raisonnablement solides et des bonnes citations. Jusqu'ici tout va bien - jusqu'à ce que je vérifie les citations" explique-t-elle.

Tout d'abord, elle a "trompé" le chatbot qui refusait, au départ, de donner des citations de chercheurs sur la question. Comme beaucoup d'autres utilisateurs, elle a contourné l'obstacle en lui proposant de "faire semblant" d'être un chercheur. Si c'était le cas, quel ouvrages utiliserait-il?

ChatGPT a donc délivré une bibliographie sur la question souhaitée avec des auteurs rééls et des citations à l'appui. Sauf que, rapidement, Teresa Kubacka a réalisé que beaucoup de citations étaient totalement fausses. "Certains auteurs semblaient être de vrais chercheurs, mais issus de domaines différents" souligne-t-elle aussi.

"Certaines citations semblaient assemblées comme un mélange à partir de quelques citations réelles, différentes mais similaires" poursuit-elle, précisant que tout ce que proposait ChatGPT "semblait plausible" et "sans erreurs factuelles" sur le fond, probablement lié au fait qu'il ne faisait que "gratter la surface."

"Ma première réaction a été de me demander si cela pouvait être vrai!"

"Ensuite, j'ai décidé de demander à ChatGPT quelque chose qui n'existait pas: un électromagnon inversé cycloïdal" poursuit Teresa Kubacka. Et bien le chatbot l'a inventé, assurant même que la question "a fait l'objet de nombreuses recherches ces dernières années."

"Et là, c'est devenu très effrayant: d'une manière ou d'une autre, ChatGPT a inventé une explication pour un phénomène inexistant en utilisant un langage si sophistiqué et plausible que ma première réaction a été de me demander si cela pouvait être vrai!"

Là encore, les sources proposées par ChatGPT mélangent le réel et le détourné faisant notamment référence à un chercheur dont le travail ne concerne pas le même domaine.

"La morale de l'histoire: ne demandez PAS à ChatGPT de vous fournir une information factuelle et scientifique" conclut Teresa Kubacka.

Cet exemple n'est pas unique. Un autre utilisateur sur Twitter a pointé du doigt que ChatGPT était par exemple capable d'inventer des noms pour répondre aux questions posées.

Thomas Leroy Journaliste BFM Business