Tech&Co Intelligence artificielle
Intelligence artificielle

"Effective altruism", "effective accelerationism": quels sont ces deux courants qui divisent le monde de l'IA?

Le psychodrame du départ (puis du retour) de Sam Altman chez OpenAI a mis en lumière les dissensions du monde de la tech, divisé entre les tenants de l'"effective accelerationism" et ceux de l'"effective altruism".

Révélée au grand public par ChatGPT il y a un an, l'intelligence artificielle n'a évidemment pas émergé du néant en décembre 2022. Plusieurs entreprises, dont Google ou Meta, s'acharnent depuis plusieurs années pour créer des modèles d'IA performants avec beaucoup d'espoirs et aussi beaucoup déboires.

Au-delà de la technique, les entreprises et les chercheurs autour de l'IA luttent aussi sur les idées. Que faut-il en espérer? Faut-il en avoir peur? OpenAI est d'ailleurs le fruit d'une telle réflexion, un soir de juin 2015, quand une petite bande s'est attablée à un hôtel pour y réfléchir. On y trouve Sam Altman mais aussi Ilya Sutskever – celui qui a tenté de le mettre à la porte – ou encore Elon Musk.

L'idée est alors de contrer Google, qui a racheté DeepMind un an plus tôt.

"Si l'IA qu'ils développent tourne mal, nous risquons d'avoir un dictateur surpuissant et immortel pour toujours", explique Elon Musk au magazine New Yorker en 2016.

OpenAI est alors imaginé comme une entreprise à but non lucratif et surtout open source. Le changement de statut opéré par Altman et l'arrivée des investisseurs comme Microsoft commence néanmoins à créer la scission qui aboutira au psychodrame de la semaine dernière. Musk s'en va en 2018. "Je n'étais pas d'accord avec ce que certains de l'équipe OpenAI voulaient faire" explique-t-il un an plus tard.

Stop ou encore?

En creux, c'est le schisme entre les tenants de l'"effective altruism" et ceux de l'"effective accelerationism" qui agite désormais la Silicon Valley. Les premiers prônent un développement raisonné et prudent de l'intelligence artificielle, croyant fermement qu'elle pourrait représenter un risque pour l'humanité. Ilya Sutskever et deux autres membres du conseil d'administration d'OpenAI font partie de ce courant de pensée.

L'"effective altruism"- qui n'est d'ailleurs pas un mouvement homogène – est largement critiqué par l'"effective accelerationism", une théorie un peu plus obscure. Pour ses tenants, la technologie et surtout l'intelligence artificielle sont des opportunités pour l'humanité.

Un peu dans le même ordre d'idée que le transhumanisme – qui prévoit une fusion de l'homme et de la machine – la technologie va radicalement bouleverser l'humanité. Le but? "Plus de prospérité" explique sur Twitter Garry Tan, le patron du plus gros incubateur de startup Y Combinator, qui a succédé à Altman à ce poste.

L'AGI, le Graal

Pour cela, il faut donc enlever les freins et investir massivement pour continuer le développement des modèles et parvenir au Graal: "l’intelligence artificielle générale" (ou AGI en anglais). L'AGI, côté sombre, c'est le modèle du Terminator, une machine digne d'un cerveau humain.

Sam Altman est bien plus rassurant: si elle était créée, l'AGI "pourrait nous aider à élever l'humanité en augmentant l'abondance, accélérer l'économie mondiale et aider à de nouvelles découvertes scientifiques", écrit-il soulignant qu'elle "pourrait aider à lutter contre le réchauffement climatique ou à coloniser l'espace."

Débat philosophique, mais surtout enjeu financier. Microsoft, qui a soutenu OpenAI à grands coups de milliards, pousse pour de nouvelles fonctionnalités. Google, qui promet de ne sortir que des outils "sûrs", accélère radicalement, tout comme Apple désormais.

L'épisode du départ de Sam Altman a mis en lumière les tensions qui parasitent depuis des années la Silicon Valley dans le domaine. Et avec son retour en grâce, plus puissant que jamais, les optimistes de l'IA ont marqué des points.

Thomas Leroy Journaliste BFM Business