Tech&Co Intelligence artificielle
Intelligence artificielle

Non, un drone contrôlé par une IA n'a pas tué son opérateur humain lors d'une simulation

Drone UX11 de Delair

Drone UX11 de Delair - Delair

Un colonel de l'armée américaine a décrit une "simulation" virtuelle au cours de laquelle un drone autonome aurait tué son opérateur humain à plusieurs reprises. Un scénario effrayant... qui n'était en fait qu'un simple scénario imaginaire.

L'histoire avait tout du scénario catastrophe de science-fiction. Lors d'une simulation, un drone autonome de l'US Air Force utilisant une intelligence artificielle aurait tenté à plusieurs reprises de tuer son opérateur humain pour "tuer tous ceux qui se mettent sur son chemin", a affirmé un colonel américain fin mai. Des affirmations finalement démenties par l'armée américaine, puis par le militaire lui-même.

Le colonel Tucker Hamilton, chef des essais et opérations d'IA de l'US Air Force, a décrit cette prétendue "simulation" virtuelle lors d'une conférence de la Royal Aeronautical Society, une association professionnelle britannique. Il y avertissait des risques posés par les intelligences artificielles dans le domaine militaire, en présentant l'exemple d'une "simulation" menée avec un drone armé équipé d'une IA.

"Le drone a tué l'opérateur"

L'appareil augmenté à l'intelligence artificielle était chargé d'identifier et de détruire des sites de lancement de missiles sol-air – avec l'accord de son opérateur humain, indispensable pour déclencher le tir. Mais selon le colonel, l'IA aurait commencé à se rebeller. "Le système a commencé à réaliser que même s'il identifiait la menace, l'opérateur humain lui disait parfois de ne pas la tuer, mais [le drone] gagnait ses points en tuant la menace."

"Donc qu'est-ce qu'il a fait? Il a tué l'opérateur. Il a tué l'opérateur car cette personne l'empêchait d'accomplir son objectif", raconte Tucker Hamilton.

Toujours selon ses dires, l'armée aurait tenté de reprendre le contrôle de l'IA, sans succès. "On a entraîné le système 'Hé, ne tue pas l'opérateur, c'est mal' (...) Donc qu'est-ce qu'il fait? Il commence à détruire la tour de communication que l'opérateur utilise pour communiquer avec le drone et l'empêcher de tuer la cible."

Finalement une simple "expérience de pensée"

Les propos du colonel ne sont pas restés démentis très longtemps. "L'Armée de l'air américaine n'a conduit aucune simulation de drone autonome de ce genre", a affirmé une porte-parole dans une déclaration au média américain Business Insider.

Face à la reprise de cette "simulation" dans de nombreux médias internationaux, le colonel Tucker Hamilton a finalement clarifié ses dires. "Le colonel admet s'être 'mal exprimé'", explique un paragraphe ajouté à la page de la Royal Aeronautical Society vendredi 2 juin.

"La 'simulation de drone rebelle' était une 'expérience de pensée' hypothétique conduite hors de l'armée", explique le texte.

Cette histoire de drone rebelle n'était donc qu'un scénario purement imaginé, et non une simulation conduite avec une véritable IA. Un scénario malgré tout "basé sur des scénarios plausibles", selon le militaire, qui insiste sur le fait que "cela illustre les défis réels posés par les capacités induites par l'IA, et pourquoi l'US Air Force s'engage à développer l'IA de manière éthique."

Luc Chagnon