Tech&Co Intelligence artificielle
Une image générée par l'intelligence artificielle

BFMTV avec Stable Diffusion

Emplois, fausses infos, risque de révolte: faut-il avoir peur de l'intelligence artificielle?

De la création de textes aux images en passant par les voix et la musique, les algorithmes d'"intelligence artificielle générative" progressent à une vitesse fulgurante. Des développements qui nourrissent de nombreuses craintes, plus ou moins justifiées. État des lieux non-exhaustif.

Le

"Plus dangereuse que les bombes nucléaires." Quand Elon Musk qualifie ainsi l'intelligence artificielle en 2014, ses commentaires sont largement balayés par les spécialistes du secteur. Trop spéculatif, trop "science-fiction".

Pourtant, cette inquiétude s'est largement diffusée ces derniers mois – et elle est prise beaucoup plus au sérieux. De ChatGPT à Midjourney en passant par les IA de création de musique et de vidéos, l'explosion des capacités des programmes d'"intelligence artificielle générative" a de quoi fasciner. Mais elle nourrit aussi de nombreuses craintes: explosion du chômage, multiplication des fake news, jusqu'à la création d'une IA "consciente" digne des scénarios de science-fiction.

Au point que des centaines d'entrepreneurs et de spécialistes du domaine mettent en garde contre le risque d'une "extinction" de l'humanité provoquée par les futures IA. Que même un des pères fondateurs des IA modernes, Geoffrey Hinton, a décidé de quitter son poste chez Google et de tirer la sonnette d'alarme sur les dangers potentiels de ces technologies.

Alors faut-il avoir peur de l'intelligence artificielle? État des lieux des principales inquiétudes.

Le risque d'une IA consciente... et "rebelle"

C'est l'une des principales peurs quand on parle d’IA: celle de l'IA consciente qui brise ses chaînes et se rebelle contre ses créateurs. Un motif récurrent dans les scénarios de science-fiction, de 2001 L'Odyssée de l'espace à I, Robot.

Pour les chercheurs, cette hypothétique "IA consciente" est appelée "intelligence artificielle générale" (ou AGI en anglais). Et n'en déplaise aux clichés des films de SF, "consciente" ne veut pas forcément dire "rebelle": les entreprises qui poursuivent cet objectif, comme OpenAI, estiment qu'une IA plus intelligente que les humains pourrait aider à résoudre de nombreux problèmes, des maladies au changement climatique.

Mais les IA actuelles sont encore très loin de s'éveiller. "ChatGPT ne fait que générer le texte le plus probable par rapport à la requête de l’utilisateur, en fonction des milliards de textes qui ont servi à l’entraîner", explique à Tech&Co Alexandre Lebrun, cofondateur de plusieurs startups utilisant des systèmes d'IA.

"ChatGPT ne 'réfléchit' pas du tout comme un humain", insiste l'entrepreneur et PDG de Nabla, une startup utilisant l'IA dans le domaine de la santé.

Et rien ne dit que les techniques actuelles permettront d'atteindre l'"AGI". Yann Le Cun, un des chercheurs les plus en pointe du monde en matière d'IA, dit sur Twitter "n'avoir aucun doute que des IA surhumaines finiront par exister"; mais il estime que pour le moment "nous n'avons même pas une ébauche de plan" pour les créer, et qu'il est donc trop tôt pour réfléchir à la manière de rendre une telle IA inoffensive pour l'humain.

Une explosion des fake news?

Certaines peurs sont donc plus proches du fantasme. Mais toutes les inquiétudes ne relèvent pas uniquement de la science-fiction: les IA génératives posent déjà des risques bien réels. "On peut facilement détourner ces outils pour des usages beaucoup moins nobles", avertit auprès de Tech&Co Laurence Devillers, professeure d'informatique à l'Université Paris-Sorbonne et spécialiste des relations homme-machine.

Les limitations de certains chatbots peuvent facilement être contournées, comme ici pour obtenir la recette du napalm.
Les limitations de certains chatbots peuvent facilement être contournées, comme ici pour obtenir la recette du napalm. © @-annieversary/Twitter

Certains chatbots expliquent facilement comment fabriquer du napalm. ChatGPT a déjà été utilisé pour générer des mails de spams ou créer des virus. Et bien sûr, l'outil de génération de texte a rapidement été utilisé par des élèves pour tricher à des examens, écrire des études scientifiques ensuite publiées dans des journaux, ou de faux avis sur Amazon.

Cette image de "manifestant blessé" a été générée par intelligence artificielle, mais des tweets l'ont présentée comme véridique
Cette image de "manifestant blessé" a été générée par intelligence artificielle, mais des tweets l'ont présentée comme véridique © Twitter

Mais s'il y a un type de contenus qui inquiète particulièrement les spécialistes, ce sont les fake news. Fausses images d'explosion au Pentagone ou d'un manifestant blessé, vidéos TikTok utilisant les voix de Joe Biden ou Donald Trump: il est de plus en plus facile de générer des images ou des voix artificielles ultra-réalistes. Et si ces créations ne sont pas encore parfaites, elles s'améliorent à vitesse grand V, au point qu'il pourrait bientôt être impossible de faire la différence entre un média authentique et un autre inventé de toutes pièces.

"Lutter contre ces fake news est un enjeu démocratique essentiel", affirme à Tech&Co Jean-Gabriel Ganascia, chercheur au Laboratoire d'Informatique de Paris VI et spécialiste en intelligence artificielle.

De quoi faciliter la désinformation volontaire, mais aussi nuire à la confiance globale: quand il est impossible de savoir si la moindre image ou vidéo est vraie, n'y a-t-il pas un risque de ne plus croire en rien? Certains internautes ont par exemple affirmé qu'une véritable photo de CRS devant le Conseil constitutionnel avait été générée par IA.

Des techniques de détection trop imprécises

Est-il possible de lutter contre ce risque de perte de confiance? De nombreux acteurs, dont Google, misent sur des techniques de "watermark": intégrer dans le média généré par IA une sorte de signature (visible ou en filigrane), qui prouve sans aucun doute son origine artificielle. Mais les méthodes actuelles sont loin d'être infaillibles: les signatures visibles comme celle du générateur d'images Dall-E peuvent facilement être supprimées; les motifs intégrés en filigrane dans l'image sont pensés pour n'être détectés qu'avec des logiciels spécifiques, et leur résistance à des retouches est très variable, selon des études.

Et c'est sans parler des générateurs de texte comme ChatGPT: peut-on intégrer une suite de mots clairement reconnaissable dans un texte, sans nuire à sa qualité, et qui survive à une simple reformulation (d'un humain ou d'un logiciel)? Pour l’instant, les recherches continuent, mais il n'existe aucune technique fiable à 100% – et tous les acteurs du secteur ne semblent pas préoccupés par le sujet.

Distinguer le vrai du faux tout en évitant le scepticisme généralisé va devenir un enjeu essentiel. "Le génie est sorti de la boîte", estime Alexandre Lebrun, pour qui il faut surtout "adapter l’éducation à cette nouvelle donne".

"Dès l’école, il faut appuyer l'idée que ce n’est pas parce que je vois quelque chose en image ou vidéo que c'est vrai, comme on le fait pour les textes. Il faut faire confiance à notre capacité critique", résume l'entrepreneur à Tech&Co.

Explosion du chômage ou semaine de 4 jours?

Les IA génératives ne vont pas seulement transformer notre rapport à la réalité: elles pourraient aussi faire l'effet d’une bombe sur le marché de l'emploi. Selon Goldman Sachs, les IA génératives pourraient exposer 300 millions d’emplois à l’automatisation dans le monde. Traducteurs, dessinateurs, chanteurs, doubleurs, auteurs, scénaristes, et même médecins ou avocats... Les professions qui s'inquiètent déjà du développement des IA sont légion.

"Une grande partie des choses que vous faites au quotidien et dont vous êtes fier, les machines pourraient bientôt le faire mieux", avertit auprès de Tech&Co Thomas Wolf, co-fondateur de Hugging Face, une plateforme centrale dans l'explosion récente des IA génératives.

Synthétiser des textes, rédiger des rapports, traduire, créer des images, des voix humaines… Au premier coup d'œil, les IA génératives semblent capables de faire énormément de choses beaucoup plus rapidement qu’un humain.

Un gain de productivité potentiellement positif pour la croissance mondiale. Il pourrait augmenter le PIB mondial de 7% en 10 ans, toujours selon Goldman Sachs; être utilisé pour généraliser la semaine de 4 jours, selon un "prix Nobel d'économie"; ou s'accompagner de la création de nouveaux emplois spécialisés dans l'utilisation d'IA, comme "ingénieur de prompt". Certaines figures de l'IA suggèrent également de créer un revenu universel pour "adoucir la transition vers les emplois du futur", comme Sam Altman, patron d'OpenAI.

Mais il est impossible de prédire l’impact réel de ces systèmes sur l'emploi. L'étude de Goldman Sachs rappelle que tout dépendra "de leurs capacités et du calendrier d'adoption" par les entreprises. Ces dernières pourraient aussi en profiter pour baisser les salaires plutôt que le niveau d'emploi. Un expert interrogé par la BBC prend l'exemple de l’arrivée du GPS et d’Uber pour les taxis traditionnels: "D'un coup, connaître par cœur les rues de Londres avait beaucoup moins de valeur".

"Le résultat a été des salaires plus bas, pas moins de conducteurs", souligne l’expert.

"On joue avec le feu"

Finalement, le risque principal de ces systèmes pourrait être… que les humains leur fassent trop confiance. "Les IA comme ChatGPT sont pensées pour générer le texte le plus probable, pas dire la vérité", rappelle Jean-Gabriel Ganascia. Leurs concepteurs assurent faire beaucoup d’efforts pour que leurs systèmes puissent s'en tenir aux faits, mais ils font encore régulièrement des erreurs et ne "réfléchissent" pas à ce qu'ils écrivent.

"Ces erreurs peuvent être très difficiles à détecter, car ChatGPT écrit toujours avec beaucoup de confiance", pointe Alexandre Lebrun.

Si les entreprises décident d'utiliser ces IA pour traiter leurs données ou écrire leurs rapports, ou si les chatbots comme Bard remplacent la recherche sur internet traditionnelle, les IA pourraient multiplier les erreurs là où elles sont utilisées – et sans avoir fait lesdites recherches, difficile de séparer le vrai du faux.

Pour beaucoup d'usages, "il faudra garder un humain expert dans la boucle", rappelle Laurence Devillers – ce qui risque de réduire les gains de temps apportés par ces systèmes. "Si l'IA se trompe et prescrit par exemple des actes médicaux inutiles (ou pire), ça engendrerait des dépenses supplémentaires pour la société, alors que l'argent aurait pu aller à des personnes qui en ont vraiment besoin", ajoute-t-elle.

"J’ai l’impression qu'on joue avec le feu en déléguant des tâches importantes à ces machines", estime Laurence Devillers.

"Il faut s'interroger sur ceux qui créent ces IA"

Enfin, en se préoccupant uniquement de risques lointains et apocalyptiques, on pourrait oublier de prendre en compte des conséquences beaucoup plus actuelles. Comme la concentration rapide du pouvoir et des données aux mains des principales entreprises du secteur, dont OpenAI.

"Il ne faut pas avoir peur des IA, mais il faut s'interroger sur ceux qui les créent", estime Thomas Wolf.

Même chose pour l'impact environnemental croissant des IA, les risques de biais sociaux dangereux dans leurs résultats, l'importance du travail humain sous-traité dans des pays à faible revenu. "Ces responsabilités n'incombent pas aux machines, mais à leurs créateurs", écrivent les chercheuses en éthique de l'IA Timnit Gebru et Margaret Mitchell, évincées de chez Google, dans une lettre publiée en réponse à l'appel au moratoire.

Pour les spécialistes interrogés par Tech&Co, ces préoccupations ne doivent cependant pas inciter à mettre l'IA générative sous cloche. "L’électricité apportait aussi des bénéfices et des risques, et on a créé des systèmes pour la maîtriser, comme pour tout outil puissant", compare Alexandre Lebrun. "Ce ne serait pas éthique de ne pas explorer ces voies-là vu les bénéfices possibles pour la société, mais il ne faut pas le faire n'importe comment", résume Laurence Devillers. Reste donc à trouver la bonne méthode.

Luc Chagnon