Tech&Co Intelligence artificielle
Intelligence artificielle

OpenAI n'interdit plus explicitement d'utiliser son modèle d'IA à des fins militaires ou malveillantes

La société derrière ChatGPT a mis à jour ses conditions d'utilisation. OpenAI a supprimé des mentions ciblant directement l'usage de son IA pour "développer des armes" ou "coder des logiciels malveillants".

OpenAI a-t-il ouvert la boîte de Pandore? La société, à l'origine du robot conversationnel ChatGPT, a modifié ses conditions d'utilisation, les rendant beaucoup plus floues et en proie à l'interprétation de chacun.

La modification des conditions d'utilisation a eu lieu le mercredi 10 janvier, rapporte The Intercept. Jusqu'à cette date, les règles d'OpenAI intégraient des interdictions très claires. Il était notamment exclu d'avoir recours à "des activités présentant un risque élevé de dommages physique". S'en suivait alors une longue liste mentionnant explicitement comme le "développement d'arme" ou les usages à des fins militaires.

À la place d'une liste d'usages proscrits, l'entreprise américaine indique seulement que l'utilisation de son modèle d'intelligence artificielle ne doit pas "utiliser (le) service pour nuire à vous-même ou à autrui". Mais désormais seul "le développement et l'usage d'armes" sont présentés comme exemple.

"Des termes vagues"

"Nous avons cherché à créer un ensemble de principes universels qui soient à la fois faciles à retenir et à appliquer, d'autant plus que nos outils sont désormais utilisés dans le monde entier par des utilisateurs au quotidien qui peuvent aussi construire leurs GPT", a expliqué un porte-parole d'OpenAI à The Intercept.

"Un principe tel que 'ne pas nuire à autrui' est large mais facile à comprendre et pertinent dans de nombreux contexte", ajoute-t-il, tout en refusant de dire si l'ensemble des activités militaires étaient concernées par cette nouvelle politique.

Mais pour Sarah Myers West, la directrice générale de l'institut AI Now: "Les termes utilisés dans la politique restent vagues et soulèvent des questions sur la manière dont OpenAI a l'intention d'aborder l'application de la loi", rappelant l'usage de système d'IA dans le conflit entre Israël et le Hamas.

Le site spécialisé The Register pointe pour sa part que les nouvelles règles font disparaître la notion de "création de malware" (des logiciels malveillants). Un usage qui a été repéré dans les semaines qui ont suivi l'apparition de ChatGPT fin 2022.

Ce changement de conditions d'utilisation est intervenu le même jour que l'ouverture de la boutique en ligne d'OpenAI. Depuis mercredi 10 janvier, il est possible de créer un robot conversationnel personnalisé et de le commercialiser. Ces créations sont basées sur le modèle de langage GPT-4, la version la plus aboutie mis en œuvre par OpenAI.

Pierre Monnier