Tech&Co
Réseaux sociaux

Pour les séduire, Facebook veut faire parler les jeunes avec des intelligences artificielles

Face à TikTok, Meta intensifie ses travaux sur l'intelligence artificielle. Mais certains spécialistes pointent des risques supplémentaires pour la santé mentale des plus fragiles.

Pour les parents de jeunes internautes, c'est un risque supplémentaire qu'il va falloir prendre en compte: dans les prochains jours, Meta (maison-mère de Facebook, Instagram et WhatsApp) va dévoiler des outils inédits pour ses différentes applications: des chatbots.

Ces intelligences artificielles, qui fonctionneront grâce à des technologies développées en interne, devraient pouvoir être paramétrées par les utilisateurs pour adopter différents types de personnalités, explique le Wall Street Journal ce 24 septembre.

Selon le quotidien économique américain, les équipes de Meta testent depuis plusieurs semaines ces différents chatbots, baptisés "Personas" en interne, avec pour but de faire revenir les jeunes utilisateurs, notamment sur Instagram, alors que la plateforme est désormais délaissée pour TikTok.

"Bob le robot"

Parmi les IA actuellement testées, l'une d'entre elles, dénommée "Bob le robot", aurait été conçue avec une personnalité inspirée du personnage Bender de la série Futurama. Elle est notamment décrite comme "supérieurement intelligente et un peu sarcastique", afin d'exploiter un humour "qui résonne chez les jeunes", selon des documents internes à l'entreprise. Meta prévoirait par ailleurs de créer des IA aux personnalités inspirées de célébrités, si ces dernières souhaitent les utiliser pour échanger avec leurs fans à leur place.

Mais un tel usage pourrait avoir des conséquences sur la santé mentale des utilisateurs, bien que le manque de recul empêche pour l'heure d'évaluer leur nature et leur ampleur avec précision. Comme le rappelle le Wall Street Journal, des études ont récemment pointé le risque lié à l'utilisation d'intelligences artificielles adoptant des personnalités définies à l'avance.

Parmi elles, une publication de l'Université de Princeton, reposant sur la déclinaison de ChatGPT - technologie concurrente à celle de Facebook - à travers plusieurs types de personnalités, se montre particulièrement critique.

"Nos résultats montrent que ChatGPT, une fois assigné une personnalité précise, peut être particulièrement toxique et dangereux de façon générale, et spécialement pour les groupes vulnérables comme les étudiants et les mineurs", expliquent les chercheurs.

De telles craintes ont d'ailleurs été ravivées lors de l'activation par Snapchat de sa propre intelligence artificielle, qui a notamment encouragé des utilisateurs ayant renseigné un âge de 13 ans à flirter avec des adultes.

Pour Facebook, les conversations avec des intelligences artificielles pourraient au passage inviter les utilisateurs à se confier, livrant ainsi à l'entreprise de précieuses données personnelles, par la suite utilisées à des fins de ciblage publicitaire, rappelait Ravit Dotan, chercheur en éthique de l'IA, au Financial Times. Une pratique, là encore, déjà prévue par Snapchat, que Facebook pourrait être tenté de déployer face à ses milliards d'utilisateurs.

https://twitter.com/GrablyR Raphaël Grably Rédacteur en chef adjoint Tech & Co