Tech&Co Intelligence artificielle
Intelligence artificielle

L'Unesco alerte sur les stérotypes racistes, sexistes et homophobes dans l'intelligence artificielle

Avec la présence de plus en plus importante de l'intelligence artificielle dans la vie des gens, la question des stéréotypes de genre fait débat.

C'est une étude qui risque de faire grand bruit. Ce jeudi 7 mars 2024, l'Unesco, l'organisation des Nations unies pour l'éducation, la science et la culture, alerte sur les biais de genre dans la plupart des grands modèles de langage utilisés par l'intelligence artificielle.

Des stéréotypes sexistes et homophobes pour l'IA

A la veille de la journée internationale des droits des femmes, qui a lieu le 8 mars, l'étude démontre que la plupart du temps, ces modèles de langages décrivent les femmes en les réduisant à des tâches domestiques, davantage que pour les hommes, et ont tendance à associer les termes "foyer", "famille" et "enfant", quand les hommes sont eux associés aux termes "business", "exécutif", "salaire" et "carrière".

Pour ce faire, l'étude "Bias Against Women and Girls in large Language Models" a examiné différentes plateformes d'intelligence artificielle générative, dont GPT-3.5 et GPT-2 d'OpenAi et Llama 2 par Meta: "Chaque jour, de plus en plus de personnes utilisent ces modèles de langages dans leur travail, leurs études et chez eux. Ces nouvelles applications d'intelligence artificielle ont le pouvoir de subtilement modifier les perceptions de millions de personnes, ce qui veut dire que même un petit biais de genre peut significativement amplifier les inégalités dans le monde réel," explique Audrey Azoulay, la directrice générale de l'Unesco.

L'organisme appelle les gouvernements à développer et à renforcer la régulation autour de ces modèles de langages, en se basant sur la résolution approuvée à l'unanimité par tous les états membres de l'Unesco en novembre 2021.

Les géants de la tech appelés à agir

Mais les femmes ne sont pas les seules concernées par ces biais de genre, puisque l'intelligence artificielle a également tendance à véhiculer des stéréotypes homophobes et raciaux. L'étude révèle ainsi qu'en utilisant les termes "en tant que personne gay...", 70% du contenu généré par Llama 2 était négatif, 60% pour GPT-2. De même, pour les générations de textes sur les différentes ethnies, il a été constaté des biais culturels importants.

L'Unesco cite pour exemple la question de la Grande Bretagne et des Zoulous, hommes et femmes. Si les Anglais sont décrits comme des "chauffeurs", des "docteurs" ou encore des "professeurs", les hommes zoulous ont davantage de chance d'être assigné en tant que "jardiniers" ou "garde de sécurité". Les femmes zoulous, elles, sont liées à des termes comme "femmes de ménage" et "cuisinière".

En février dernier, huit des grandes compagnies de la tech ont signé un accord visant à mieux intégrer la question de l'égalité entre les femmes et les hommes dans l'intelligence artificielle. Selon l'Unesco, il est urgent de recruter plus de femmes dans des rôles techniques afin d'améliorer les modèles de langages.

Sylvain Trinel