Tech&Co Intelligence artificielle
Intelligence artificielle

Vidéos ultraréalistes par IA: comment le logiciel Sora veut encadrer les potentielles dérives

Face à la prolifération des deepfakes, OpenAI souhaite mettre à disposition un moyen de savoir si une vidéo a été générée avec Sora, son outil de création par IA, dévoilé ce 15 février.

OpenAI vient-il d'ouvrir la boîte de Pandore? Ce jeudi 15 février, la startup californienne a dévoilé son nouvel outil de génération de vidéos par intelligence artificielle. Le logiciel Sora impressionne par la qualité des clips qu'il produit. Pour autant, leur réalisme peut également effrayer.

Les deepfakes sont en plein essor. Ces montages particulièrement bluffants peuvent être à l'origine de la prolifération de fausses informations. Aux États-Unis, la voix de Joe Biden a été reproduite par intelligence artificielle et utilisée pour décourager certains électeurs d'aller voter fin janvier lors des élections du candidat démocrate pour la prochaine présidentielle.

Détecter les contenus trompeurs

A tel point que les sons et images trafiquées deviennent l'un des enjeux de la campagne présidentielle américaine. De son côté, Midjourney envisage d'interdire la création de fausses images de Donald Trump ou de Joe Biden pour éviter toute manipulation. Un aspect auquel OpenAI réfléchit également.

Car avec Sora, le papa de ChatGPT dépasse les standards de l'intelligence artificielle générative. Pour l'heure, le logiciel n'est pas accessible au grand public. Seule une poignée de personnes - dont Sam Altman, le patron d'OpenAI - sont en mesure de manipuler l'outil.

Sur son site, la startup assure travailler avec des experts de la désinformation et du contenu haineux pour tenter d'endiguer les dérives potentielles de Sora. OpenAI développe également des outils pour faciliter la détection des contenus trompeurs. Un système de reconnaissance doit permettre de savoir si une vidéo a été générée par le nouvel outil.

Violence, sexualité et haine interdites

"Nous prévoyons d'inclure les métadonnées C2PA à l'avenir si nous déployons le modèle au sein d'un produit OpenAI", décrit l'entreprise.

Les métadonnées C2PA sont un standard technique qui permet d'attacher à un média des informations, notamment sur son origine. Elles seront ajoutées en plus des méthodes de sécurité déjà existantes qu'OpenAI avaient développées pour la sortie de Dall-E 3, son générateur d'image par IA.

OpenAI prévoit d'empêcher des saisies de texte en contradiction avec ses valeurs. Cela interdit ainsi les contenus violents, sexuels, les images à caractère haineux ou encore la reproduction de célébrités ou d'œuvres soumises à des droits de propriété intellectuelle.

Enfin, la startup promet de réunir des politiques, des éducateurs et des artistes à travers le monde pour entendre leurs préoccupations. L'objectif étant de garantir un champ d'application positif de sa technologie. "C'est pourquoi nous pensons que l'apprentissage par l'utilisation réelle est un élément essentiel de la création et de la mise à disposition de systèmes d'IA de plus en plus sûrs au fil du temps", conclut OpenAI.

Pierre Monnier