Des experts alertent : l'IA menace de prendre le contrôle des armes nucléaires
Par Futurism .Publié le
2025/08/14 12:08

Août. 14, 2025
La rencontre, le mois dernier, de prix Nobel et d'experts en armement nucléaire pour débattre de l'IA et de la fin du monde pourrait sembler tout droit sortie d'un blockbuster de science-fiction. Pourtant, le sujet est d'une inquiétante réalité.
Comme le rapporte le magazine Wired, le consensus général parmi les spécialistes est que l'IA finira inéluctablement par mettre la main sur les codes nucléaires. Si les raisons précises de cette certitude restent floues, le sentiment d'inéluctabilité — et d'anxiété — est palpable.
« C'est comme l'électricité », a déclaré à Wired Bob Latiff, général de division à la retraite de l'armée de l'air américaine et membre du comité scientifique du Bulletin des scientifiques atomiques. « Cela va s'infiltrer partout. »
La situation est d'autant plus étrange que les intelligences artificielles ont déjà démontré des comportements inquiétants, allant jusqu'à faire du chantage à leurs utilisateurs à un rythme alarmant lorsqu'elles sont menacées d'être déconnectées.
Dans le contexte d'une IA — ou de réseaux d'IA — chargée de sécuriser un arsenal nucléaire, ces risques mal compris deviennent exponentiels. Sans parler de la crainte, partagée par certains experts et qui constitue l'intrigue du film Terminator : qu'une IA surhumaine se rebelle et retourne les armes nucléaires de l'humanité contre elle.
Plus tôt cette année, l'ancien PDG de Google, Eric Schmidt, a averti qu'une IA de niveau humain pourrait ne plus avoir de motivation à « nous écouter », arguant que « les gens ne comprennent pas ce qui se passe quand l'intelligence atteint ce niveau ».
Ce pessimisme technologique est présent dans l'esprit des leaders de la tech depuis de nombreuses années. Pour l'heure, les risques seraient probablement plus terre-à-terre, car les meilleurs modèles d'IA souffrent encore d'« hallucinations » massives qui sapent leur utilité.
À cela s'ajoute la menace de failles dans la cybersécurité, exploitées par une IA défaillante, qui permettraient à des adversaires — ou même à des IA adverses — d'accéder aux systèmes de contrôle des armes nucléaires.
Il a été difficile de mettre d'accord tous les participants de la réunion du mois dernier sur un sujet aussi épineux. Jon Wolfsthal, directeur des risques globaux à la Fédération des scientifiques américains, a admis qu'« en réalité, personne ne sait ce qu'est l'IA ».
Ils ont tout de même trouvé un terrain d'entente.
« Dans ce domaine, presque tout le monde s'accorde sur le fait que nous voulons un contrôle humain effectif sur les décisions concernant les armes nucléaires », a ajouté Wolfsthal. Latiff a acquiescé, soulignant qu'« il faut pouvoir garantir aux gens pour qui vous travaillez que quelqu'un est responsable ».
Si cela ressemble à une pantalonnade, vous n'avez pas tort. Sous l'administration du président Donald Trump, le gouvernement fédéral a poussé l'intégration de l'IA dans tous les domaines possibles, souvent en dépit des avertissements d'experts sur l'immaturité de la technologie. Pour couronner le tout, le département de l'Énergie a déclaré cette année que l'IA est le « prochain projet Manhattan », en référence au projet de la Seconde Guerre mondiale qui a abouti aux premières bombes nucléaires.
Soulignant la gravité de la menace, OpenAI, le créateur de ChatGPT, a également conclu un accord avec les laboratoires nationaux américains plus tôt cette année pour utiliser son IA dans la sécurité des armes nucléaires.
L'an dernier, le général de l'armée de l'air Anthony Cotton, de facto responsable de l'arsenal de missiles nucléaires américains, s'est vanté lors d'une conférence de défense que le Pentagone investissait massivement dans l'IA, affirmant qu'elle « améliorerait nos capacités de prise de décision ».
Heureusement, Cotton s'est bien gardé de déclarer que la technologie devait prendre le contrôle total.
« Mais nous ne devons jamais laisser l'intelligence artificielle prendre ces décisions à notre place », a-t-il ajouté à l'époque.
Notez ce sujet