Tech&Co Intelligence artificielle
Intelligence artificielle

Google rédige une "Constitution du robot" pour s'assurer que ses robots ne nous tueront pas

Google Deepmind a dévoilé un système de collecte de données d'entraînement qui inclut une "Constitution du robot". Le programme doit aider les droïdes dotés d'IA à prendre des décisions sûres.

Comment empêcher les robots dotés d'intelligence artificielle (IA) de blesser leurs utilisateurs humains? Google DeepMind, la division de l'entreprise américaine dédiée à à l'IA, répond à cette question avec AutoRT, un nouveau système de collecte de données d'entraînement destiné à mieux former les robots dotés d'IA, indique The Verge.

AutoRT doit permettre à ces robots de mieux comprendre leur environnement et, en fonction de celui-ci, de prendre les décisions les plus rapides, les plus efficaces et les plus sûres. Par exemple, aller chercher un café sans renverser un individu sur leur passage. Pour cela, le système intègre une "Constitution du robot", des garde-fous inspirés des Trois lois de robotique formulées par l'écrivain de science-fiction Isaac Asimov.

Pour rappel, ces lois sont des règles auxquelles tous les robots doivent se soumettre. La première loi énonce qu'"un robot ne peut porter atteinte à un être humain ni, restant passif, laisser cet être humain exposé au danger".

53 robots, 77.000 essais

Selon The Verge, la Constitution du robot se présente sous la forme d"'invites", une instruction ou un texte utilisé pour interagir avec les systèmes d’intelligence artificielle, axées sur la sécurité. Par exemple, elles peuvent suggérer au modèle de langage étendu (LLM) d'AutoRT d'éviter de sélectionner des tâches qui impliquent des humains, des animaux, des objets tranchants ou encore des appareils électriques

Pour accomplir sa mission, AutoRT fait travailler conjointement un modèle de langage visuel (VLM) et un modèle de langage étendu (LLM). Le premier permet au robot de comprendre son environnement tandis que le second lui suggère une liste de tâches à effectuer. Il joue également le rôle d'arbitre pour sélectionner l'action appropriée à choisir.

Pour plus de sécurité, DeepMind a également programmé ses robots pour qu'ils s'arrêtent automatiquement si la force exercée sur leurs articulations dépasse un certain seuil. Ils embarquent également un interrupteur physique pour que les opérateurs humains peuvent utiliser pour les désactiver. Dans un billet de blog, Google DeepMind explique avoir déployé une flotte de 53 robots AutoRT dans quatre immeubles de bureaux et a réalisé plus de 77.000 essais.

Louis Mbembe