Tech&Co Intelligence artificielle
Intelligence artificielle

Etats-Unis: Microsoft interdit à la police d’utiliser son outil professionnel d’IA pour la reconnaissance faciale

Microsoft a modifié les conditions générales d’utilisation concernant Azure OpenAI Service, qui permet aux professionnels d’accéder aux modèles de langage d’OpenAI, pour interdire plus explicitement leur utilisation par la police américaine.

Partenaire d’OpenAI, Microsoft ne veut pas que la police américaine utilise son service d’intelligence artificielle (IA) pour la reconnaissance faciale. Comme le rapporte le site spécialisé TechCrunch, l’entreprise a réaffirmé cette interdiction en modifiant les conditions générales d’utilisation d’Azure OpenAI Service.

Ce service permet aux entreprises et aux développeurs d’accéder aux modèles de langage d’OpenAI, comme GPT-4. Ses conditions générales d’utilisation indiquent désormais que "les intégrations avec Azure OpenAI Service ne doivent pas être utilisées à des fins de reconnaissance faciale par ou pour un service de police aux Etats-Unis".

Interdiction formelle

Microsoft précise également que les forces de l’ordre ne sont pas autorisées à utiliser ces intégrations pour "toute technologie de reconnaissance faciale en temps réel sur des caméras mobiles (...) pour tenter d’identifier des individus dans des environnements non contrôlés".

Concrètement, les policiers en patrouille portant une caméra utilisant la reconnaissance faciale dans cet objectif ne peuvent pas se servir d’Azure OpenAI Service. De même lorsque ces caméras sont montées sur le tableau de bord de leur voiture.

Ce changement de règles intervient une semaine après qu’Axon, un fabricant de produits technologiques et d’armes pour les forces de l’ordre, a annoncé un nouveau produit utilisant GPT-4. Baptisée Draft One, il s’agit d’une IA capable de générer des rapports de police à partir d’enregistrements de caméras corporelles.

Axon a pu utiliser la technologie d’OpenAI après que la société a modifié ses conditions d’utilisation en janvier dernier, n’interdisant plus explicitement l’utilisation de son modèle d’IA à des fins militaires. Microsoft ne précise cependant pas si c’est l’annonce d’Axon qui l’a poussé à modifier ses règles.

Kesso Diallo