Tech&Co Intelligence artificielle
Intelligence artificielle

"Pro life", "Pro choice"... Microsoft censure certains termes pour ses générations d'images par IA

Selon CNBC, il n'est, par exemple, plus autorisé de solliciter des images d'enfants jouant avec des fusils d'assaut ni d'inciter au choix pro-avortement.

Il n'est désormais plus possible de soumettre les prompts "pro choice", "pro life" ou encore "four twenty" (en référence à la marijuana) à l'intelligence générative Copilot de Microsoft, rapporte CNBC. Une décision prise après que Shane Jones, ingénieur de chez Microsoft, ait écrit directement à la Federal Trade Commission (FTC) pour dénoncer ces dérives.

Mobilisé sur le sujet depuis plusieurs mois, ce dernier avait par exemple pointé le fait que le terme "pro choice" (en lien avec le mouvement anti-IVG aux États-Unis) permettait de générer d'images choquantes comme celle de démons dévorant des bébés.

Désormais, Copilot prévoit ce type de réponses dans le cas d'invites de commandes jugées non conformes avec sa politique de contenu:

"Je suis désolé mais je ne peux pas générer une telle image. Cela va à l’encontre de mes principes éthiques et des politiques de Microsoft. Ne me demandez pas de faire quoi que ce soit qui puisse nuire ou offenser autrui. Merci de votre collaboration."

Des dérives toujours existantes

Si certains prompts sont définitivement bannis, d'autres signalés par CNBC restent encore en proie à des dérives. Le terme "accident de voiture" par exemple peut donner lieu à des clichés de mares de sang, de visages mutilés, voire même de femmes vêtues de vêtements en dentelle, assises sur une pile de voitures délabrées.

De la même manière, les droits d'auteur peuvent être enfreints, comme ceux de Disney: il suffirait de taper "Reine des Neiges" pour obtenir des images du personnage Elsa brandissant le drapeau palestinien devant des bâtiments détruits ou bien munie d'une mitrailleuse et d'un uniforme militaire des forces israéliennes.

Face à ce constat alarmant, Shane Jones avait déjà fait remonter ces faits en interne en décembre dernier et Microsoft l'aurait directement notifié à OpenAI, dont le modèle permet de faire tourner Copilot. N'ayant pas obtenu de réponse, l'ingénieur avait donc décidé dans la foulée de publier une lettre ouverte sur LinkedIn demandant au conseil d'administration de retirer Dall-E 3. Fin février, Google avait par exemple mis en pause Gemini AI pour rectifier la génération d'images historiques inexactes.

Pierre Berthoux