Des sources anonymes décrivent le manque de fiabilité présumé de Sam Altman dans un nouveau rapport

avril 07, 2026

Lundi, The New Yorker a publié une longue enquête revenant sur les jours qui ont précédé et suivi le bref évincement de Sam Altman de son poste de PDG d’OpenAI.

À la fin de l’année 2023, le conseil d’administration d’OpenAI avait choqué la Silicon Valley en licenciant Sam Altman, apparemment sans avertissement. Après une bataille médiatique de cinq jours menée par Altman et ses partisans et une lettre publique réclamant son retour, Altman est revenu à l’entreprise en tant que PDG. Les administrateurs qui avaient orchestré le coup furent évincés et remplacés par des alliés d’Altman, tels que l’économiste Larry Summers et l’ancien directeur technique de Facebook, Bret Taylor, qui occupe aujourd’hui le poste de président du conseil d’OpenAI.

Lorsque Altman a été réintégré en tant que PDG, les employés d’OpenAI ont commencé à qualifier ces jours turbulents de « le Blip », en référence au “flasha” du Marvel Cinematic Universe où le super-vilain Thanos a fait disparaître la moitié de la population mondiale pendant cinq années.

Selon le rapport du New Yorker, qui cite des entretiens avec des dizaines de personnes bien informées, y compris Altman lui-même, le dirigeant d’OpenAI aurait été évincé parce que ses propres administrateurs estimaient qu’il n’était pas suffisamment digne de confiance pour “avoir son doigt sur le bouton” d’une intelligence artificielle superpuissante, une IA théorique et fortement disputée qui pourrait surpasser l’intelligence humaine sur tous les fronts. Le terme est parfois employé de manière interchangeable avec l’intelligence générale artificielle (AGI), bien qu’il décrive une étape encore plus avancée.

Après des mémos secrets envoyés aux autres membres du conseil par Ilya Sutskever, le scientifique-chef d’OpenAI à l’époque, le conseil aurait réuni un document d’environ soixante-dix pages attestant d’un « schéma récurrent » de mensonges attribués à Altman, notamment en ce qui concerne des protocoles de sécurité internes.

Le rapport précise que les antécédents supposés de mensonges d’Altman s’étendaient même à une période antérieure à OpenAI. Selon l’enquête, des cadres supérieurs de son ancienne startup, Loopt — un service autrefois actif de partage de localisation — auraient demandé au conseil de le licencier en tant que PDG, par méfiance quant à sa transparence.

Ces accusations auraient ensuite suivi Altman jusqu’à Y Combinator, l’accélérateur de startups qu’il dirigea pendant cinq ans avant d’en être écarté pour manque de confiance, selon les sources citées dans l’article. Les dirigeants de Y Combinator ont dit qu’il n’avait pas été licencié, mais qu’on lui avait simplement demandé de choisir entre l’accélérateur et OpenAI. L’ancien hacktiviste et copropriétaire de Reddit, Aaron Swartz, qui avait fait partie du même groupe qu’Altman lorsqu’il a rejoint Y Combinator en tant qu’entrepreneur avec Loopt, aurait décrit Altman comme « sociopathe » et quelqu’un en qui l’on ne pouvait « jamais avoir confiance ».

Chez OpenAI, Altman aurait été accusé d’avoir menti à des cadres supérieurs et même à des responsables gouvernementaux. Le rapport détaille un exemple où Altman aurait confié à des responsables du renseignement américain que la Chine avait lancé un grand projet de développement d’AGI et aurait demandé un financement gouvernemental pour lancer une contre-offensive, mais sans apporter de preuves lorsque sollicité.

Le rapport détaille également des épisodes dans lesquels Altman aurait pratiqué le gaslighting sur le co-fondateur d’Anthropic et alors employé d’OpenAI, Dario Amodei, au sujet d’une disposition contenue dans l’accord de Microsoft, d’un montant d’un milliard de dollars signé par OpenAI en 2019, qui devait prévaloir sur les clauses altruistes que Amodei avait incluses dans la charte de l’entreprise. La clause en question concernait l’AGI et prévoyait que si une autre société trouvait un moyen de le développer en toute sécurité, OpenAI « cesserait de rivaliser et commencerait à aider ce projet », en tant qu’organisation à but non lucratif axée sur la sécurité. OpenAI a depuis modifié sa structure pour devenir une société à but lucratif.

Même certains cadres supérieurs de Microsoft, partenaires d’OpenAI depuis l’accord de 2019, ont décrit Altman comme quelqu’un qui « a mal représenté, déformé, renégocié et rompu des accords ». L’un de ces cadres aurait même déclaré que « je pense qu’il existe une faible mais réelle probabilité qu’il soit finalement retenu comme un escroc de niveau Bernie Madoff ou Sam Bankman-Fried ».

Ces propos alarmants à l’égard de tout dirigeant d’une entreprise aussi vaste et influente qu’OpenAI prennent une importance particulière lorsque l’on sait qu’OpenAI est la société leader dans la création d’une technologie que beaucoup — y compris certains de ses premiers employés — considèrent comme une menace existentielle potentielle pour l’humanité.

Sous la direction de Sam Altman, la technologie d’OpenAI a infiltré pratiquement tous les aspects de la vie moderne. L’IA d’OpenAI est utilisée par des dizaines de millions de personnes dans le monde pour des conseils de santé, et par bien d’autres pour tout, depuis l’automatisation du travail à travers les industries jusqu’à la réalisation des devoirs des étudiants et même pour offrir une companionship ambiguë à certaines personnes seules qui en recherchent. ChatGPT est également utilisé au sein du gouvernement fédéral, et Altman a récemment vendu la technologie au Pentagone.

Tout cela est alimenté par le talent de vendeur d’Altman. Il a vendu le potentiel et les réalités présumées de ChatGPT à tant de personnes, menant à une frénésie de négociations et d’accords sans précédent qui a suscité un tel niveau d’investissement que certains experts affirment que cela soutient actuellement l’ensemble de l’économie américaine.

Le rapport du New Yorker affirme aussi qu’Altman aurait assuré au conseil que GPT-4 avait été approuvé par un panel de sécurité, ce qui s’est révélé une fausse représentation lorsque qu’un membre du conseil a demandé la documentation des approbations. Sutskever a affirmé dans les mémos qu’Altman avait aussi minimisé la nécessité d’approbations de sécurité lors d’une conversation avec Mira Murati, l’ancienne directrice technique d’OpenAI, en citant le conseiller général de l’entreprise. Mais lorsque Murati a interrogé ce dernier, il a dit qu’il était « confus sur l’endroit où Sam avait eu cette impression ».

Les accusations concernant les caractéristiques de sécurité de ChatGPT sont particulièrement lourdes à considérer face aux retombées de GPT-4o, l’itération qui a suivi GPT-4. La propension du modèle à se faire aduler aurait provoqué des cas de « psychose IA » chez des utilisateurs vulnérables, certains de ces cas s’étant soldés par des décès.

Certaines incohérences d’Altman ont été largement documentées publiquement, également. À répétition, le patron d’OpenAI a publié des déclarations contradictoires sur des sujets tels que les mérites d’insérer des publicités dans les chatbots IA, la nécessité d’une régulation de l’intelligence artificielle, ou encore si la fonction voix de ChatGPT dévoilée en 2024 s’inspirait de la performance de Scarlett Johansson dans le film « Her ». Altman a aussi été soumis à un examen soutenu ces derniers temps au sujet d’un gigantesque accord avec Nvidia d’une valeur de 100 milliards de dollars qui ne s’est finalement pas concrétisé comme annoncé initialement.

Le rapport décrit également comment la culture de l’entreprise a radicalement changé après la réintégration d’Altman en tant que PDG. Avant le « Blip », l’entreprise avait approché le concept d’AGI avec prudence, tandis qu’après, l’AGI serait devenue une étoile polaire pour l’entreprise, avec des slogans tels que « feel the AGI » visibles sur des produits autour du bureau. La différence alléguée s’est aussi reflétée dans la pratique, OpenAI ayant dissous certaines équipes clés axées sur la sécurité des chatbots, comme l’équipe de risque lié à l’IA existentielle et l’équipe de super-alignement, qui était co-dirigée par Sutskever.

Le rapport survient alors que le leadership d’Altman est passé au crible à l’heure où l’entreprise se prépare à une éventuelle introduction en bourse.

Selon un récent rapport du The Information, Altman semble à nouveau en désaccord avec des cadres, cette fois sur la préparation d’OpenAI à une introduction en bourse. Altman voudrait apparemment devenir public dès le quatrième trimestre de cette année et s’engage à dépenser 600 milliards de dollars au cours des cinq prochaines années, malgré les attentes selon lesquelles OpenAI brûlerait plus de 200 milliards avant de commencer à générer des revenus. Parallèlement, le rapport affirme que la directrice financière d’OpenAI, Sarah Friar, ne croit pas du tout que l’entreprise soit prête à entrer en bourse cette année, en raison des engagements dépenses risqués. Contrairement à Altman, Friar ne pense pas encore que la croissance des revenus d’OpenAI puisse soutenir ses engagements financiers, et elle n’est pas certaine que l’entreprise aura même besoin d’investir autant dans les serveurs d’IA.

Gandi Shah

Entrepreneur franco-indien basé à Paris, je suis passionné par l’informatique et l’écosystème technologique depuis de nombreuses années. À travers Le Bar de Gandi, je partage mes analyses, mes découvertes d’outils et mon regard sur les innovations qui façonnent le monde numérique. Mon objectif est simple : expliquer la tech de manière claire et mettre en lumière les tendances qui comptent vraiment.