Tech&Co Intelligence artificielle
Intelligence artificielle

ChatGPT veut cacher qu'il a été entrainé sur des oeuvres protégées comme Harry Potter

L'outil a été entrainé sur de nombreuses oeuvres protégées par des droits d'auteurs, ce que le chatbot tente désormais de masquer.

L'entreprise OpenAI n'est pas près de travailler en bonne intelligence avec les auteurs. ChatGPT tente désormais d'éviter de répondre aux questions des utilisateurs qui l'interrogent sur les droits d'auteurs le concernant, selon un article publié le 10 août et repéré par Business Insider.

Pour se former, ChatGPT est notamment allé piocher dans des oeuvres protégées par le droit d'auteur. L’Université de Californie à Berkeley, qui a travaillé sur le sujet, évoque pas moins de 572 livres dont de nombreux classiques de la littérature mais aussi des oeuvres qui ne sont toujours pas tombées dans le domaine public, comme Harry Potter à l’école des sorciers.

Cette révélation a soulevé de nombreuses inquiétudes sur la capacité des intelligences artificielles à s'accaparer des textes protégés. Surtout, c'est une quantité de procès en vue pour l'entreprise derrière le chatbot. Alors OpenAI semble déterminer à brouiller les pistes pour éviter les accusations.

Limites de l'astuce

Selon l'étude publiée le 10 août, menée par des chercheurs de la branche recherche de ByteDance (propriétaire de TikTok), ChatGPT "perturbe ses résultats" pour éviter de recracher des réponses trop proches des oeuvres protégées. "Ce qui ne se produisait pas dans la version précédente de ChatGPT", détaille l'article.

"Nous supposons que les développeurs de ChatGPT ont mis en place un mécanisme permettant de détecter si les demandes des utilisateurs visent à extraire des contenus protégés par le droit d'auteur ou à vérifier la similitude entre les résultats générés et les contenus protégés par le droit d'auteur", expliquent encore les chercheurs dans l'article.

Reste que les chercheurs ont constaté que ChatGPT pouvait facilement recracher des extraits d'oeuvres protégées, signe que la tentative d'OpenAI de brouiller les pistes a ses limites.

Margaux Vulliet