Tech&Co
Vie numérique

Jusqu’à 3 ans de prison: l'utilisation de deepfakes bientôt mieux encadrée

La loi sur la sécurisation de l'espace numérique prévoit de punir plus lourdement les auteurs de deepfakes réalisés sans le consentement de la personne visée.

Approuvé début avril par le Sénat, le projet de loi sur la sécurisation de l'espace numérique doit être définitivement adopté par l'Assemblée nationale ce mercredi. Parmi les mesures prévues par le texte: l'encadrement des deepfakes, ces images, sons ou vidéos manipulés à l'aide de l'IA le plus souvent utilisés pour usurper l'identité d'une personnalité.

"Ce projet de loi prévoit d'adapter l'infraction de montage à l'intelligence artificielle, aux deepfakes. On va pouvoir réprimer ceux qui effectuent un montage grâce à l'IA", indique sur BFMTV Arnaud Dimeglio, avocat au barreau de Montpellier et de Paris, spécialisé en droit du numérique.

Dans le détail, l'auteur d'un deepfake, sans le consentement de la personne visée, risquera jusqu'à 2 ans de prison et 45.000 euros d'amende. Si le deepfake est à caractère sexuel, la sanction montera à trois ans d'emprisonnement et 75.000 euros d'amende.

Culture Geek : Piégé par une visioconférence en deepfake, il transfère 25 millions de dollars à des escrocs - 05/02
Culture Geek : Piégé par une visioconférence en deepfake, il transfère 25 millions de dollars à des escrocs - 05/02
4:18

Obligation de transparence pour les plateformes

Si la France a pris les devants, l'Union européenne s'est aussi penchée sur le sujet alors que les deepfakes, dont le degré de réalisme n'a cessé d'évoluer au fil des années, se multiplient sur les réseaux sociaux. Parfois à des fins politiques: "On peut tous imaginer que les citoyens que nous sommes soyons trompés dans notre jugement et peut-être même dans notre vote lors des campagnes électorales", explique sur BFMTV le député européen LR Geoffroy Didier,vice-président de la commission numérique et intelligence artificielle.

Pour limiter les risques de manipulation, la loi de l'Union européenne sur l'IA applicable d'ici à deux ans prévoit une obligation de transparence pour les contenus modifiés à l'aide de l'intelligence artificielle. Mi-mars, Bruxelles a également demandé des explications à huit grands services en ligne, dont TikTok, Facebook, Google, YouTube et X, sur la façon dont ils gèrent les risques liés à la diffusion de contenus manipulés.

Les internautes, eux, sont appelés à la vigilance. Car "il est très compliqué" d'identifier un deepfake, souligne Gérald Holubowicz, fondateur de la newsletter synthmedia.fr et enseignant à Science Po. "Il n'existe pas de détecteur officiel dont il faut en venir aux bonnes vieilles méthodes: l'esprit critique et un peu de recul" en "prenant ses distances avec tout ce que si se dit sur internet", ajoute-t-il.

https://twitter.com/paul_louis_ Paul Louis Journaliste BFM Eco