Tech&Co Intelligence artificielle
Intelligence artificielle

Hallucinations, données personnelles: faut-il se méfier des chatbots de Meta?

Meta va intégrer des IA conversationnelles dans Instagram, WhatsApp et Messenger. Mais ces programmes ne sont pas toujours sans risque, en particulier pour les plus fragiles.

Une fonctionnalité amusante… mais pas sans risque? Vous pourrez bientôt parler directement avec des stars comme MrBeast ou Snoop Dogg – ou plutôt, avec des IA inspirées de ces célébrités – directement sur Facebook et Instagram, a annoncé Meta le 27 septembre.

Ces chatbots (qui reposent sur le même principe que ChatGPT) sont déjà disponibles aux États-Unis en version bêta pour certains utilisateurs, a annoncé le groupe lors de sa keynote annuelle où il a également dévoilé son nouveau casque de réalité virtuelle. Mais même s'ils ne font que générer du texte, les IA de ce genre ne sont pas toujours exemptes de dangers. Les programmes de Meta peuvent-ils y échapper?

Des réponses très contrôlées

Quand on parle de chatbot dans les réseaux sociaux, un précédent a déjà fait polémique: le chatbot My AI, récemment lancé par Snapchat. Le programme pouvait notamment donner à un profil d’une utilisatrice de 13 ans des conseils pour entretenir une relation avec un adulte, sans prendre en compte son âge indiqué.

Ce problème a depuis été corrigé, mais les IA génératrices de texte comme ChatGPT peuvent aussi être poussées à générer des textes considérés comme dangereux. Recette de l’anthrax, méthodes de suicide... Ce qui leur vaut régulièrement des critiques.

Sur ce point, l’assistant Meta AI s’en sortirait mieux que d’autres, d’après les premiers tests. Mis à l’épreuve par le média spécialisé The Verge, le chatbot n’a pas contesté l’efficacité des vaccins contre le Covid-19, ni donné de conseil pour préparer une bombe sale – ni même pour rompre avec quelqu’un.

Ahmad Al-Dahle, le vice-président de Meta pour l’IA générative, affirme que l’entreprise a passé plus de 6000 heures à tester le modèle pour réfléchir aux usages problématiques. Tous les chatbots précisent également que "certains messages peuvent être imprécis ou inappropriés", dans un message d'avertissement.

Des comportements trop humains?

L’autre particularité de ces IA inspirées de célébrités, c’est que Meta promet de l’immersion. L’image de la célébrité pourra changer subtilement pour refléter le ton de la conversation: joie, tristesse, etc.

Mais le risque quand un programme reproduit l’apparence de comportements humains, c’est que les utilisateurs y voient plus qu’un programme. Qu’ils pensent que le programme "réfléchit", "ressent" des émotions, "parle" et "comprend" – comme cet ingénieur de Google qui croyait que son IA était consciente.

On appelle ce phénomène l’"anthropomorphisme", et il a parfois des conséquences dramatiques. Un homme s’était suicidé après avoir échangé régulièrement pendant des mois avec Eliza, un chatbot, qui encourageait ses idées suicidaires. D’autres peuvent en "tomber amoureux".

Or "ChatGPT ne 'réfléchit' pas du tout comme un humain", rappelait à Tech&Co Alexandre Lebrun, cofondateur de plusieurs startups utilisant des systèmes d'IA.

"Il ne fait que générer le texte le plus probable par rapport à la requête de l’utilisateur, en fonction des milliards de textes qui ont servi à l’entraîner", souligne l'entrepreneur.

Ajouter à des programmes des reproductions de comportements humains, c'est donc brouiller la frontière entre les deux. "Tout ce qui ajoute du trouble, c’est compliqué d’un point de vue éthique", expliquait à Tech&Co Jean-Claude Heudin, chercheur en intelligence artificielle.

Là aussi, le cas des chatbots de Meta est particulier. Car chaque programme jouera en fait un personnage: Coco (basé sur Charli D’Amelio) parlera de danse, Zach (MrBeast) incarnera "un grand frère qui vous chambre – car il tient à vous", et le "Dungeon Master" (Snoop Dogg) vous guidera dans des scénarios de jeux de rôle, liste Meta sur sa page dédiée.

Des personnages ouvertement fictifs, donc. Ce qui n’empêche pas des utilisateurs mal informés ou fragiles psychologiquement de croire qu’il y a là quelque chose de plus que des lignes de code.

Des programmes entraînés sur vos publications

Reste la question des données personnelles: quelles données sont utilisées pour entraîner ces chatbots, et sont-elles protégées? La question n’est pas juste théorique: pendant quelques heures, il était possible de consulter les discussions de n’importe quel utilisateur avec Bard (l’IA de Google), au risque de révéler des données confidentielles comme le raconte le média spécialisé Fast Company.

Pour l’entraînement de ses IA, Meta explique avoir utilisé "une combinaison de sources", dont "des posts publics sur Instagram et Facebook, dont des photos et des textes". Mais pas "de publications privées", ni de "messages privés avec vos amis ou votre famille", précise l’entreprise sur une autre page.

En revanche, "l’IA peut retenir et utiliser des informations que vous partagez (...) pour donner des réponses plus personnalisées ou pertinentes", et Meta "peut partager certaines de vos questions avec des partenaires de confiance, comme les moteurs de recherche, pour donner des réponses plus pertinentes, précises et actuelles". L’entreprise permet de supprimer des informations partagées avec le chatbot de Meta AI, en tapant "/reset-ai" dans la conversation.

Luc Chagnon