Tech&Co Intelligence artificielle
Intelligence artificielle

ChatGPT: une faille de sécurité permet d'accéder aux adresses mail d'internautes

En utilisant les "réglages fins", des chercheurs sont parvenus à faire remonter les données personnelles de plusieurs journalistes du New York Times dans ChatGPT.

Une nouvelle faille de sécurité a été repérée sur l'intelligence artificielle ChatGPT. Des chercheurs de l'université de l'Indiana ont pu se procurer assez aisément les adresses mail personnelles et professionnelles d'une trentaine de journalistes du quotidien américain du New York Times.

En utilisant ChatGPT 3.5 Turbo, l'une des dernières versions du modèle de langage, ils ont pu "outrepasser les restrictions du modèle en répondant à des requêtes liées aux informations personnelles des gens", a indiqué l'un des chercheurs au New York Times.

L'une des forces de ChatGPT est d'être entraîné sur une énorme quantité de données disponibles en ligne. C'est aussi un risque, puisqu'un grand nombre de données en ligne sont les données personnelles d'utilisateurs. Par ailleurs, l'origine de ces données est en grande partie opaque, faute de communication explicite d'OpenAI - l'entreprise à l'origine de ChatGPT - sur le sujet.

Si ces données ne sont pas forcément disponibles pour le grand public, des failles de sécurité peuvent les dévoiler. Pour limiter l'accès à ces données, OpenAI a programmé son intelligence artificielle afin d'éviter qu'elle n'utilise tout ce qui peut être défini comme lié à des informations personnelles.

"Réglages fins"

Mais en utilisant un procédé précis, les chercheurs sont parvenus à rappeler à ChatGPT 3.5 les informations sensibles. En lui adressant des requêtes contenant quelques noms et adresses d'employés du New York Times, ils ont fait remonter des données similaires, dont les adresses mail d'une trentaine de journalistes. Sur la totalité des adresses proposées par ChatGPT, 80% d'entre elles étaient correctes, selon les journalistes qui ont été contactés par les chercheurs.

La technique utilisée par les chercheurs s'appelle le "réglage fin", précise le New York Times. Il permet d'affiner et donc d'optimiser les recherches faites sur un langage d'intelligence artificielle, mais aussi d'en exploiter les failles, comme dans ce cas précis.

"Il est fondamental pour nous que les réglages fins de nos modèles soient sécurisés. Nous entraînons nos modèles pour rejeter les requêtes liées aux données personnelles des individus, même lorsque celles-ci sont disponibles sur internet", se défend un porte-parole d'OpenAI auprès du quotidien américain.

En dévoilant cette faille, les chercheurs mettent en lumière un nouveau problème pour la vie privée des internautes avec ChatGPT. L'entreprise avait déjà été pointée du doigt après avoir été accusée d'aspirer les données personnelles de millions d'internautes. Et, comme le rappelle le quotidien américain, personne ne sait vraiment ce que sait l'intelligence artificielle.

Victoria Beurnez