Tech&Co Intelligence artificielle
Intelligence artificielle

Intelligence artificielle: pourquoi la crise au sein d'OpenAI rebat les cartes de l'avenir du secteur

La folle semaine d'OpenAI, qui a vu son patron Sam Altman limogé puis réintégré, risque de peser sur le développement de l'intelligence artificielle. Notamment sur le plan de l'éthique et de la morale.

Le retour de Sam Altman chez OpenAI, moins d'une semaine après son limogeage surprise, renforce la stature du jeune entrepreneur et la vision d'un développement à marche forcée de l'intelligence artificielle (IA), malgré les craintes qu'elle suscite.

La réintégration du trentenaire a été rendue possible par la réorganisation du conseil d'administration, annoncée dans la nuit de mardi à mercredi, et le départ de tous les administrateurs à l'origine de son renvoi, à l'exception d'Adam D'Angelo.

Ce dernier, patron du réseau social Quora, est rejoint par l'ancien secrétaire au Trésor américain Larry Summers et par l'entrepreneur et programmeur Bret Taylor.

"Une gouvernance plus stable"

Selon plusieurs médias américains, ce conseil devrait être élargi, notamment pour intégrer un ou plusieurs représentants de Microsoft qui, bien qu'ayant investi 13 milliards de dollars dans OpenAI, en était jusqu'ici tenu à l'écart.

"Nous sommes enthousiasmés par les changements au sein du conseil d'OpenAI", a réagi Satya Nadella, PDG de Microsoft, sur X (ex-Twitter). "Nous pensons que c'est un premier pas essentiel vers une gouvernance plus stable, bien informée et efficace", a-t-il ajouté.

"Je suis impatient de retrouver OpenAI et de développer notre partenariat avec Microsoft", a déclaré Sam Altman, qui aura été brièvement embauché par Microsoft après son licenciement.

C'est un point de rupture pour OpenAI, créateur de l'interface d'IA générative ChatGPT et fondé en 2015 pour développer "une intelligence artificielle sûre", une philosophie garantie par ses statuts.

Au sommet, une société à but non lucratif, qui chapeaute la start-up OpenAI, est contrôlée majoritairement par des administrateurs indépendants, non actionnaires du groupe.

"Un raisonnement autre"

C'est une structure "inhabituelle" pour une société de la Silicon Valley, souligne Annika Steiber, dirigeante du cabinet Management Insights, les principaux exemples se trouvant dans d'autres secteurs.

Quatre administrateurs de l'ancien conseil avaient justifié le renvoi de Sam Altman par son manque de "transparence" vis-à-vis d'eux, sans donner davantage de précision.

Selon des médias américains, plusieurs d'entre eux reprochaient à l'ancien élève de Stanford de privilégier le développement accéléré d'OpenAI, quitte à se poser moins de questions sur les possibles dérives de l'IA.

Emmett Shear, éphémère directeur général nommé lundi 20 novembre, avait assuré sur X que "le conseil (n'avait) pas débarqué Sam à la suite d'un désaccord sur la sécurité" de l'IA. "Leur raisonnement était complètement autre", avait-il ajouté, sans plus de précision.

Personnalité reconnue de l'IA et chercheur, Gary Marcus a répété mercredi 22 novembre ce qu'il avait dit au début de cette aventure hors norme, à savoir que cela "rappelle une évidence: on ne peut pas charger la tech de s'auto-réguler".

Dans un entretien en mars au site d'information GZero sur l'IA, Larry Summers s'était montré critique à l'égard des "politiques de restriction (...) qui limitent les bénéfices que nous pouvons retirer de ces technologies ou qui les ralentissent".

"Confiance en l'éthique de Sam"

"En général, il vaut mieux laisser pousser le plus de fleurs possible plutôt que d'en faire trop avec des restrictions", avait-il insisté.

De nombreux observateurs s'inquiètent du développement débridé de l'IA générative, des dommages qu'elle pourrait occasionner en matière de désinformation et de suppressions d'emplois.

"Le côté non lucratif n'a plus aucun pouvoir" au sein d'OpenAI à l'issue de la saga qu'a connue la compagnie, a dénoncé Ed Zitron, patron de l'agence de relations publiques EZPR, spécialisée dans le secteur technologique. "C'est un coup de force. Vraiment triste, quand on y pense", a-t-il posté sur X.

"J'ai confiance dans le sens de l'éthique de Sam et dans son intégrité pour trouver l'équilibre entre les intérêts de chacun", a commenté pour sa part Vinod Khosla, fondateur de la société de capital-investissement Khosla Ventures, actionnaire d'OpenAI.

"La société soumet désormais les programmes et l'intelligence artificielle à des exigences supérieures" sur le plan moral, estimait Bret Taylor en 2022. "Et tous ceux qui développent de l'IA aujourd'hui sont favorables" à intégrer "l'éthique et la transparence" dans leurs travaux, faisait-il valoir.

P.M. avec AFP