• Lundi 30 Juillet 2025 - 9:43 PM

Soutenez Bonjour

Soutien Journalisme indépendant

Accessible à tous, financé par les lecteurs

Soutenez-nous

Un bunker pour l'AGI : Le pari apocalyptique de l'ex-scientifique en chef d'OpenAI


Par Noor Al-Sibai .Publié le 2025/05/23 12:40
Un bunker pour l'AGI : Le pari apocalyptique de l'ex-scientifique en chef d'OpenAI
Mai. 23, 2025
  1. 0
  2. 27

Imaginez un monde où les machines surpassent l'entendement humain et où l'Intelligence Artificielle Générale (AGI) devient une réalité tangible. Cela ressemble à de la science-fiction, n'est-ce pas ?

Pourtant, pour l'ancien scientifique en chef d'OpenAI, Ilya Sutskever, ce scénario n'est pas une simple hypothèse lointaine, mais une vérité imminente qui exige des préparatifs extraordinaires. Au cœur des avancées fulgurantes de l'IA, le nom de Sutskever émerge avec ses idées controversées sur la nécessité d'un "bunker" pour affronter cet avenir inconnu. Qu'est-ce qui pousse l'un des esprits les plus brillants du monde de l'IA à envisager de tels plans radicaux, et ces idées reflètent-elles une véritable inquiétude ou de simples visions d'un futur encore incertain ?

Ilya Sutskever, l'ancien scientifique en chef d'OpenAI, s'est longtemps préparé à l'avènement de l'Intelligence Artificielle Générale (AGI), ce terme industriel encore flou désignant le moment où l'intellect humain sera dépassé par les algorithmes. Et pour ce jour hypothétique, il avait des plans... pour le moins surprenants.

Dans des entretiens avec Karen Hao de The Atlantic, qui prépare un livre sur la tentative infructueuse d'éviction du PDG Sam Altman en novembre 2023, des proches de Sutskever ont confié qu'il semblait obsédé par l'AGI. Selon un chercheur qui a assisté à une réunion de l'été 2023, où le cofondateur (qui a depuis démissionné) s'est montré particulièrement prolixe sur le sujet, un scénario apocalyptique semblait être une conclusion inévitable pour Sutskever.

"Une fois que nous serons tous dans le bunker...", a commencé le scientifique en chef.

"Pardon ?", a interrompu le chercheur, interloqué. "Le bunker ?"

"Nous allons certainement construire un bunker avant de libérer l'AGI", a rétorqué Sutskever, avec un calme déconcertant. "Bien sûr, l'accès au bunker sera facultatif."

Cet échange saisissant souligne à quel point la direction d'OpenAI était, et reste, confiante dans la technologie qu'elle développe, même si d'autres estiment que nous sommes loin de l'AGI et que nous n'y parviendrons peut-être jamais.
Une "extase" technologique ?

Aussi théâtral que puisse paraître cet échange, deux autres personnes présentes ont confirmé que le "prophète" de l'AGI chez OpenAI – qui, rappelons-le, affirmait des mois avant le lancement de ChatGPT en 2022 que certains modèles d'IA étaient "légèrement conscients" – a bien mentionné un bunker.

"Il y a un groupe de personnes – Ilya en fait partie – qui pensent que la construction de l'AGI entraînera une extase", a confié le premier chercheur à Karen Hao. "Littéralement, une extase."

Comme l'ont noté d'autres interlocuteurs de l'auteure pour son prochain livre "Empire of AI", l'obsession de Sutskever pour l'AGI avait pris une tournure particulière à l'été 2023. Au-delà de son intérêt pour la création de l'AGI, il s'était également inquiété de la manière dont OpenAI gérait la technologie qu'elle était en train de développer.

Cette inquiétude a finalement poussé le "scientifique fou", aux côtés de plusieurs autres membres du conseil d'administration de l'entreprise, à tenter d'évincer le PDG Sam Altman quelques mois plus tard, et a finalement conduit à son propre départ.

Bien que Sutskever ait mené le coup, sa détermination, selon les sources interrogées par The Atlantic, a commencé à faiblir lorsqu'il a réalisé que les rangs d'OpenAI se ralliaient derrière Altman. Il a finalement retiré son opinion selon laquelle le PDG n'était pas apte à diriger, dans ce qui semble avoir été une tentative de sauver sa propre peau – une tentative qui, au final, s'est avérée infructueuse.

Fait intéressant, Karen Hao a également appris que les employés d'OpenAI avaient surnommé cette tentative de coup d'État manquée : "The Blip" (Le Clignotement).

Source: Futurism

Notez ce sujet



sport

Référendum

Les principaux obstacles auxquels sont confrontés les immigrants

  1. 83%
  2. 16%
  3. 0%

6 Votes

DESSUS