Tech&Co
Facebook

Sur Facebook, la diffusion (sans avertissement) de photos créées par IA sera bientôt sanctionnée

Dans les prochains mois, le réseau social commencera à étiqueter les images crées à l'aide d'un outil de génération par IA. La mesure s'appliquera à Facebook, à Instagram et à Threads.

Le géant américain Meta va identifier "dans les prochains mois" toute image générée par l'intelligence artificielle (IA) qui sera publiée sur ses réseaux sociaux, a-t-il annoncé mardi 6 février, une mesure déjà en œuvre avec son propre outil de génération d'images.

"Dans les prochains mois, nous étiquetterons les images que les utilisateurs publient sur Facebook, Instagram et Threads lorsque nous pourrons détecter des indicateurs conformes aux normes de l'industrie indiquant qu'elles sont générées par l'IA", a annoncé Nick Clegg, le responsable des affaires internationales de Meta, dans une note de blog.

En train de construire cette capacité

Si Meta a déjà mis en place ces étiquettes sur les images créées à partir de son outil Meta AI depuis son lancement en décembre, "nous voulons pouvoir le faire aussi avec des contenus créés avec des outils d'autres entreprises", comme Google, OpenAI, Microsoft, Adobe, Midjourney, ou encore Shutterstock, a-t-il ajouté.

"Nous sommes en train de construire cette capacité dès maintenant et, dans les prochains mois, nous commencerons à appliquer des étiquettes dans toutes les langues prises en charge par chaque application", a encore souligné le dirigeant.

Cette annonce survient alors que l'essor de l'IA générative fait craindre que des personnes n'utilisent ces outils pour semer le chaos politique, par le biais de la désinformation ou de la mésinformation, à l'approche de plusieurs élections majeures qui se tiendront cette année dans divers pays où vit presque la moitié de la population mondiale.

"Pas encore tout à fait au point"

Si Nick Clegg admet que cet étiquetage à grande échelle, par le biais notamment de marqueurs invisibles, "n'éliminera pas" totalement le risque de production de fausses images ("deepfakes"), "cela minimiserait certainement" sa prolifération "dans les limites de ce que la technologie permet actuellement".

"Ce n'est pas parfait, la technologie n'est pas encore tout à fait au point, mais c'est la tentative la plus avancée de toutes les plateformes jusqu'à présent pour fournir une transparence significative à des milliards de personnes dans le monde", a insisté Nick Clegg auprès de l'AFP.

"J'espère vraiment qu'en faisant cela et en prenant les devants, nous inciterons le reste de l'industrie à travailler ensemble et à essayer de développer les normes (techniques) communes dont nous avons besoin", a poursuivi le dirigeant de Meta, qui se dit prêt à "partager" sa technologie ouverte "le plus largement possible".

Son outil de détection n'étant pas totalement fiable, Meta demandera par ailleurs aux utilisateurs publiant une photo, une vidéo ou un son généré par IA de le signaler, grâce à une nouvelle case à cocher lors de la mise en ligne, que ce soit sur Facebook ou Instagram. Ceux qui ne le font pas, et diffusent ainsi des contenus générés par IA sans avertissement, pourront être sanctionnés, prévient l'entreprise.

La société californienne OpenAI, créatrice de ChatGPT, a aussi annoncé mi-janvier le lancement d'outils pour combattre la désinformation, affirmant sa volonté de ne pas permettre l'utilisation de ses outils technologiques, dont ChatGPT et le générateur d'images DALL-E 3, à des fins politiques.

P.M. avec AFP