BFM Business
Assurance Banque

Comment l’IA générative version ChatGPT menace les banques

[AVIS D'EXPERT] L'utilisation de l'intelligence artificielle générative fait courir aux banques des risques importants en matière de données privées. Décryptage avec notre expert Guillaume Almeras, fondateur du site de veille et de conseils Score Advisor.

Dans ses récentes prévisions pour les banques en 2024, le cabinet Forrester retient en premier lieu les risques liés à leur utilisation de l’IA générative.

L’année prochaine en effet, selon Forrester, au moins dix banques dans le monde seront poursuivies du fait d’une faille massive créée par leur utilisation de l’IA générative, qui se traduira par une violation des réglementations existantes, particulièrement en matière de protection des données privées. Forrester prévoit ainsi un doublement, l’année prochaine, des amendes imposées aux banques dans le cadre du règlement général sur la protection des données (RGPD).

Cette sombre prédiction amène à examiner de plus près quels sont les risques qu’encourent les banques à utiliser l’IA générative. Une utilisation qui, à ce stade, demeure pourtant largement exploratoire et extrêmement prudente. L’IA générative est notamment expérimentée dans le domaine de la détection des fraudes, l’accompagnement des forces commerciales (humaines) dans les relations qu’elles entretiennent avec les clients, ainsi que dans les décisions d’octroi de crédit. Mais l’IA commence également à être utilisée pour revoir et automatiser les processus ou gérer des portefeuilles de placement.

Or le problème est que l’IA est le plus souvent une boîte noire pour la plupart de ceux qui l’utilisent et qu’elle risque aussi bien de l’être pour ceux… qui la développent ! Passé en effet un certain degré de sophistication et de multiplication des algorithmes, surtout si ces derniers sont soumis à des modalités "d’apprentissage", c’est-à-dire essentiellement de rétroaction, il peut devenir très difficile de comprendre certains résultats et de s’assurer qu’ils n’ont pas été biaisés par rapport à la programmation de départ.

Discriminations pour des prêts

Bien connus désormais, ces biais sont souvent pointés du doigt. Dans le domaine bancaire, cela pourrait par exemple se traduire par de véritables discriminations dans l’octroi de prêts vis-à-vis de différentes populations et ceci non seulement sans que les banques ne l’aient voulu mais sans même qu’elles ne s’en aperçoivent rapidement. Car si les systèmes d’IA reproduisent bien entendu les préjugés qui les alimentent, comme on le dit souvent, cela ne garantit pas qu’une programmation même totalement transparente ne créera pas par inadvertance, dès lors qu’elle doit prendre en compte et pondérer une multitude de critères, des biais de décisions. En d’autres termes, c’est la complexité même qui, en l’occurrence, devient une menace pour les utilisateurs.

L’autre grand risque concerne la sécurité des nombreuses données, souvent sensibles et confidentielles dans les banques, dont se nourrissent les systèmes d’IA. Des données dont la circulation, l’accessibilité et la protection sont dès lors mises en question.

L’interdiction que de nombreuses banques ont faite à leurs personnels commerciaux d’avoir recours à Chat GPT dans le cadre de leurs relations clients illustre très bien ces deux menaces: incertitudes quant aux résultats et craintes que des données sensibles ne soient ainsi accidentellement divulguées.

Des résultats assez obscurs

Il n’est donc pas question de dire que les établissements bancaires jouent actuellement aux apprentis sorciers. Toutefois, la prédiction de Forrester est une alerte qui ne peut être négligée.

Certes, la situation est assez particulière: emportée par la vague actuelle et l’hypermédiatisation de l’IA générative, les banques (comme d’autres industries) se sentent comme obligées d’aller vers l’emploi d’une technologie dont les résultats paraissent pourtant assez obscurs et les retours plutôt lointains. Mais cette situation n’est pas vraiment inédite. Il y a quelques années, par exemple, il paraissait évident que les établissements financiers devaient se lancer sur les blockchains, alors même que leur utilité réelle par rapport aux systèmes existants ne sautait vraiment pas aux yeux. Mais l’on trouvait normal de pas bien saisir les promesses d’une technologie aussi nouvelle et bouleversante.

Face aux modes technologiques, le scepticisme ne sert à rien et il a souvent tort. La seule règle est d’exiger le plus de transparence et de simplicité possible. Face à l’IA, dont la principale menace tient à sa complexité, il ne s’agit plus seulement d’une règle mais d’un véritable enjeu.

Par Guillaume Almeras, fondateur du site de veille et de conseils Score Advisor