Tech&Co Intelligence artificielle
Intelligence artificielle

Microsoft corrige le bug ayant permis la création de deepfakes de Taylor Swift

Microsoft a apporté un correctif à Designer, son générateur d'images par IA, destiné à rendre plus difficile la production de photos qui intègrent le visage d'une personnalité.

Les répliques du séisme provoqué par la publication d'images pornographiques de Taylor Swift générées par intelligence artificielle (IA) sur les réseaux sociaux continuent de se faire sentir.

Alors que le média 404 a révélé que ces clichés viraux ont été produits à l'aide de Microsoft Designer, un programme de génération d'images par intelligence artificielle (IA) édité par le géant de la tech, ce dernier a annoncé le renforcement des mécanismes de protections de son logiciel pour rendre plus difficile la génération d'images qui intègrent le visage d'une personnalité,

Si Microsoft Designer empêche déjà les utilisateurs de générer des images avec des prompts tels que "Taylor Swift nue", les auteurs de ces clichés sont parvenus à contourner cette règle. D'abord en modifiant légèrement l'orthographe du nom des célébrités et en décrivant des images sans user de termes à connotation sexuelles, mais en utilisant certaines formulations de manière à en obtenir une de cette nature malgré tout.

Mettre en place des garde-fous

D'après les tests effectués par 404 jeudi 1er février, la faille que les utilisateurs avaient exploité pour générer les images de Taylor Swift a été résolue. Le média indique que Microsoft avait diligenté une enquête qui n'a pas permis de confirmer que les images de Taylor Swift ont été réalisées à l'aide de son logiciel. En attendant, Microsoft avait dit prendre "les mesures nécessaires pour remédier" à ces failles selon les propos d'un porte-parole de l'entreprise américaine.

"Nous avons de grandes équipes qui travaillent sur le développement de garde-fous et d'autres systèmes de sécurité en accord avec nos principes d'IA responsable, y compris le filtrage du contenu et la détection des abus afin d'atténuer les mauvaises utilisations du système et aider à créer un environnement plus sûr"

Une position confirmée par le PDG de Microsoft Satya Nadella. Dans une interview accordée à NBC News, ce dernier a déclaré qu'"il est de notre responsabilité" d'ajouter davantage de "garde-fous" aux outils d'IA pour les empêcher de produire des contenus préjudiciables.

Louis Mbembe