Tech&Co Intelligence artificielle
Intelligence artificielle

Pourquoi "halluciner" est-il le mot de l'année au Royaume-Uni?

Outre-Manche, le Cambridge Dictionary a décidé de nomme ce verbe "mot de l'année" avec un tout nouveau sens, lié à l'intelligence artificielle.

Comme chaque année, le Cambridge Dictionary dévoile son "mot de l'année" au Royaume-Uni en se basant sur le nombre de recherches sur son site internet. L'institution a donc révélé le "gagnant" de l'année 2023. Et il s'agit du verbe "halluciner". Mais il ne faut pas l'entendre tout à fait dans son sens premier.

L'arrivée soudaine des intelligences artificielles génératives comme ChatGPT a en effet mis en lumière ce terme. Halluciner signifie donc, pour un modèle d'IA, de créer de fausses informations. En ce sens, le logiciel imagine des réponses qui n'ont finalement pas de sens ou s'avèrent en contradiction avec ses propres sources.

"Elles risquent de s'égarer"

Les hallucinations sont très courantes et sont d'ailleurs la principale critique faite à Bard (l'IA créée par Google) ou ChatGPT, même si elles ont tendance à diminuer à mesure que les modèles s'améliorent.

"Les IA sont fantastiques pour traiter d'énormes quantités de données afin d'en extraire des informations spécifiques et de les consolider. Mais plus vous leur demandez d'être originales, plus elles risquent de s'égarer" rappelle à Skynews Wendalyn Nichols, responsable de la publication du Cambridge Dictionary.

Le principal problème de ces hallucinations est la détermination avec laquelle l'intelligence artificielle peut les affirmer. Au printemps dernier, un avocat américain avait utilisé ChatGPT pour l'aider dans un dossier. Le chatbot lui avait alors signalé avec assurance une jurisprudence qui n'existe en réalité pas.

Thomas Leroy Journaliste BFM Business