Tech&Co Intelligence artificielle
Intelligence artificielle

ChatGPT: pour éviter les dérapages de son intelligence artificielle, Microsoft la limite à cinq réponses

Le logiciel conversationnel, intégré à Bing, a multiplié les remarques déplacées et insultes vis-à-vis des utilisateurs.

L’intelligence artificielle de Microsoft, basée sur ChatGPT, est désormais surveillée de près. Disponible depuis une semaine dans le moteur de recherche Bing pour une sélection d’utilisateurs, le logiciel capable de faire la conversation avec les internautes a multiplié les dérapages au cours des dernières heures, allant jusqu’à insulter ses interlocuteurs humains.

Cinq questions avant une réinitialisation

Pour limiter les risques, sans pour autant remettre en cause le fonctionnement de son outil lancé en grande pompe, Microsoft annonce de nouvelles contraintes de taille: chaque conversation est désormais limitée à seulement cinq questions sur un même sujet de la part des utilisateurs. Une fois les cinq questions posées, le système se remet à zéro et entame une nouvelle conversation, en “oubliant” ce qui a été dit précédemment.

Cette évolution fait suite à de précédentes annonces de Microsoft, qui a reconnu les défaillances de son logiciel, récemment critiqué pour ses réactions parfois déplacées. L’entreprise avait reconnu que le risque de dérapage était plus important après de longues conversations avec les utilisateurs.

Au cours de la semaine, l’intelligence artificielle de Bing s’est par exemple montrée particulièrement agressive lorsque les utilisateurs débusquaient ses mensonges, mais a également raconté avoir espionné les salariés de Microsoft en accédant au flux de leur webcam. Ces propos incohérents pourraient pousser Google, qui doit lancer un système concurrent, à multiplier les tests avant de se jeter à l’eau.

https://twitter.com/GrablyR Raphaël Grably Rédacteur en chef adjoint Tech & Co