Tech&Co Intelligence artificielle
Intelligence artificielle

Images pédopornographiques générées par IA: ce que dit la loi française

Images pédopornographiques générées par IA: que dit la loi?

Images pédopornographiques générées par IA: que dit la loi? - Tech&Co

Certaines intelligences artificielles permettent de générer des images pornographiques impliquant des mineurs. La loi française à ce sujet est claire. Mais son application dans un contexte international, beaucoup moins.

L'intelligence artificielle est capable du meilleur comme du pire. Les IA génératives d'images comme Midjourney peuvent produire des œuvres d'art, mais elles peuvent aussi être utilisées pour créer des images pornographiques – et y intégrer des personnages à l'apparence de mineurs.

Des internautes s'échangent ainsi des images de pornographie infantile créées par IA, et certains créent même des IA spécialisées dans ce genre de productions. Que dit le droit français au sujet de ces images? Leur origine artificielle en fait-elle un cas à part?

"Ce qui compte, c'est la représentation"

"Le droit est clair: à partir du moment où on a une représentation pornographique d'un mineur, l'article 227-23 du Code pénal trouve à s'appliquer", tranche Laurent Morlet, avocat pénaliste au barreau de Versailles.

Cet article punit de 5 ans d'emprisonnement et 75.000 euros d'amende la consultation d'images pédopornographiques. La détention, ainsi que la diffusion, même lorsqu'il ne s'agit que de tentatives, sont punies des mêmes peines – qui peuvent être alourdies en cas d'utilisation d'un réseau de communications électroniques et de leur commission en bande organisée.

À la différence de véritables photos pédopornographiques, les personnages présents sur les images générées par IA sont entièrement inventés. Cela change-t-il quelque chose du point de vue juridique? Pas du tout, souligne Laurent Morlet.

"L'article 227-23 s'applique dès que le le personnage a l'aspect physique d'un mineur. Peu importe qu'il soit réel ou pas, que l'image soit photoréaliste ou pas: ce qui compte, c'est la représentation", insiste le juriste.

Les images générées par IA tombent donc dans cette catégorie.

Des leviers d'action sur les plateformes

Ce n'est pas la première fois que la justice doit gérer ce genre de cas. Le dessinateur Bastien Vivès fait par exemple l'objet d'une enquête pour diffusion d'images pédopornographiques à travers ses bandes dessinées. Un support utilisé depuis longtemps pour représenter de la pornographie infantile, par exemple à travers les mangas et animations "lolicon" originaires du Japon, qui ne punit pas les représentations fictives.

Certains points restent à déterminer. "La jurisprudence française va-t-elle considérer la génération de ces images comme une simple consultation, ou comme de la détention?", s'interroge Laurent Morlet.

Les tribunaux français n'ont pas encore eu à se prononcer sur ce phénomène, pour le moment assez limité selon les experts cités par le média américain Bloomberg.

Qu'en est-il des sites qui hébergent ce genre de contenus, ou les modèles d'IA qui permettent de les générer? La justice dispose de plusieurs leviers: les plateformes permettant la transmission ou le stockage de contenu "doivent concourir à la lutte contre la diffusion" des images pédopornographiques, selon l'article 6 de la loi pour la confiance dans l'économie numérique.

Elles doivent pour cela mettre en place un système de signalement de ces contenus par les utilisateurs, informer les autorités de ces signalements, rendre publics les moyens qu'elles consacrent à la lutte contre ces activités illicites, et conserver les données permettant d'identifier les responsables. En cas de non-respect, leur dirigeant s'expose à 1 an d'emprisonnement et 250.000 euros d'amende.

L'État peut également demander le blocage de ces sites par décision administrative, grâce à un décret paru en 2015: le ministère de l'Intérieur peut imposer aux fournisseurs d'accès de bloquer toute consultation de ces plateformes en France, avec la technique du blocage par DNS. Un dispositif déjà employé pour bloquer plusieurs sites de mangas pornographiques hébergeant des dessins de mineurs – et utilisé par erreur pour bloquer tous les liens de la messagerie Telegram en mai.

"Tous les pays ne sont pas d'accord"

Mais l'application des règles concernant les plateformes se heurte déjà à de nombreux obstacles.

"À première vue, le droit français est simple, mais son application est éminemment complexe", rappelle Alexandre Archambault, avocat spécialiste du numérique.

Par exemple, le blocage des sites par DNS peut être contourné sans trop de difficultés. Un problème qui empêche aussi le blocage complet des sites pornographiques ne vérifiant pas l'âge des utilisateurs (c'est-à-dire tous), au mépris de la loi.

Pour rendre ces mesures plus effectives, il faudrait qu'elles puissent s'appliquer au-delà du seul cadre français, grâce à des accords internationaux. Or, une grand partie des entreprises centrales dans le secteur de l'IA (création des modèles, plateformes de partage…) sont domiciliées aux États-Unis, pays qui ne partage pas exactement la conception française en matière de pédopornographie.

"Tous les pays ne sont pas d'accord avec la criminalisation de la pornographie infantile fictive, y compris les États-Unis, qui sont pourtant indispensables pour obtenir un accord international", souligne Alexandre Archambault.

Dans une décision de 2002 (Ashcroft v. Free Speech Coalition), la Cour suprême américaine a censuré une disposition qui interdisait toutes les représentations fictionnelles de pornographie impliquant des mineurs. Un des motifs: certaines pouvaient être protégées par le Premier amendement de la Constitution américaine, de par leur caractère artistique.

"Depuis, aussi atroces que puissent être ces représentations, elles peuvent être considérées comme relevant de la liberté d'expression, et toute les tentatives de limiter cette liberté au niveau fédéral ont échoué", raconte Alexandre Archambault.

Difficile donc d'imaginer un accord international reprenant intégralement les règles en vigueur en France. Il faut également composer avec le développement d'IA "open source", facilement personnalisables, et capables de fonctionner sur un ordinateur personnel sans recourir à des serveurs ou une plateforme tierce – et donc sans laisser de trace sur internet, y compris si elles sont modifiées pour générer des images pédopornographiques.

"C'est comme pour la drogue: on arrive à pénaliser le commerce, mais la production pour consommation personnelle, c'est plus compliqué", compare Alexandre Archambault.

Laurent Morlet nuance ce risque, mais pas pour de bonnes raisons: "C'est difficile de savoir si la demande d'images générées par IA va être importante. Le plus souvent, ces personnes recherchent malheureusement des scènes réelles."

Luc Chagnon