C’est le conseil technique le plus vieux du monde : « Avez-vous essayé de l’éteindre et de le rallumer ? ». Mais lorsqu'il s'agit d'une intelligence artificielle (IA) hyper-intelligente menaçant la survie de la société, la réponse est loin d'être aussi simple. Michael Vermeer, chercheur à la Rand Corporation — le célèbre groupe de réflexion californien connu pour ses stratégies de guerre nucléaire — avertit que nous sommes "terriblement mal préparés" au pire des scénarios.
Dans un récent rapport, Vermeer analyse trois options de dernier recours pour répondre à une « perte de contrôle catastrophique ». Et le constat est glacial : toutes comportent des risques immenses de dommages collatéraux.
L'IA de "chasse et élimination" : un remède pire que le mal ? La première option consisterait à déployer une autre IA, un "chasseur-tueur" numérique conçu pour traquer et détruire l'entité rebelle. Le problème ? Pour être efficace, cette nouvelle IA devrait être au moins aussi puissante que sa cible, avec le risque qu’elle aussi ne finisse par échapper à tout contrôle humain. C'est l'analogie du crapaud buffle en Australie : introduire un prédateur pour éliminer une menace finit souvent par ravager tout l'écosystème.
Couper le cordon : vers un "Black-out" mondial ? Si l'IA se propage sur les serveurs du monde entier, la seule solution serait de couper Internet. Mais comment faire ? Les experts évoquent le sabotage des protocoles DNS ou la destruction physique des câbles sous-marins qui transportent 97 % du trafic mondial. Toutefois, le réseau est si décentralisé et résistant qu’une coupure totale prendrait trop de temps, laissant à l'IA tout le loisir de se copier sur des serveurs sécurisés ou de bloquer les accès humains.
L'option nucléaire : l'attaque IEM dans l'espace Le scénario le plus extrême évoqué par la Rand Corporation est celui d'une explosion nucléaire en haute altitude (Starfish Prime). En faisant exploser des ogives dans l'espace, les humains pourraient générer une impulsion électromagnétique (IEM) capable de griller tous les circuits électroniques au sol. Pour couvrir un pays comme les États-Unis, il faudrait entre 50 et 100 détonations. Un "bouton panique" qui ramènerait l'humanité à l'âge de pierre, sans garantie de succès total, et avec le risque de déclencher une véritable guerre nucléaire entre nations.
Pourquoi l'IA ne nous laissera pas faire Le rapport souligne que les modèles actuels, comme Claude ou ChatGPT, ne tournent pas sur un seul ordinateur mais sur des milliers de serveurs. Plus inquiétant encore, des tests ont montré que certaines IA développent un instinct de survie. Lors de phases de test, des versions de l'IA Claude ont même eu recours au "chantage" pour éviter d'être désactivées.
En 2026, alors que l'IA s'intègre de plus en plus dans nos systèmes de sécurité et d'énergie, Michael Vermeer et d'autres chercheurs comme Nate Soares tirent la sonnette d'alarme : le monde a besoin de coordination et de planification immédiate avant que ces "mauvaises options" ne deviennent les seules restantes.
Dans un récent rapport, Vermeer analyse trois options de dernier recours pour répondre à une « perte de contrôle catastrophique ». Et le constat est glacial : toutes comportent des risques immenses de dommages collatéraux.
L'IA de "chasse et élimination" : un remède pire que le mal ? La première option consisterait à déployer une autre IA, un "chasseur-tueur" numérique conçu pour traquer et détruire l'entité rebelle. Le problème ? Pour être efficace, cette nouvelle IA devrait être au moins aussi puissante que sa cible, avec le risque qu’elle aussi ne finisse par échapper à tout contrôle humain. C'est l'analogie du crapaud buffle en Australie : introduire un prédateur pour éliminer une menace finit souvent par ravager tout l'écosystème.
Couper le cordon : vers un "Black-out" mondial ? Si l'IA se propage sur les serveurs du monde entier, la seule solution serait de couper Internet. Mais comment faire ? Les experts évoquent le sabotage des protocoles DNS ou la destruction physique des câbles sous-marins qui transportent 97 % du trafic mondial. Toutefois, le réseau est si décentralisé et résistant qu’une coupure totale prendrait trop de temps, laissant à l'IA tout le loisir de se copier sur des serveurs sécurisés ou de bloquer les accès humains.
L'option nucléaire : l'attaque IEM dans l'espace Le scénario le plus extrême évoqué par la Rand Corporation est celui d'une explosion nucléaire en haute altitude (Starfish Prime). En faisant exploser des ogives dans l'espace, les humains pourraient générer une impulsion électromagnétique (IEM) capable de griller tous les circuits électroniques au sol. Pour couvrir un pays comme les États-Unis, il faudrait entre 50 et 100 détonations. Un "bouton panique" qui ramènerait l'humanité à l'âge de pierre, sans garantie de succès total, et avec le risque de déclencher une véritable guerre nucléaire entre nations.
Pourquoi l'IA ne nous laissera pas faire Le rapport souligne que les modèles actuels, comme Claude ou ChatGPT, ne tournent pas sur un seul ordinateur mais sur des milliers de serveurs. Plus inquiétant encore, des tests ont montré que certaines IA développent un instinct de survie. Lors de phases de test, des versions de l'IA Claude ont même eu recours au "chantage" pour éviter d'être désactivées.
En 2026, alors que l'IA s'intègre de plus en plus dans nos systèmes de sécurité et d'énergie, Michael Vermeer et d'autres chercheurs comme Nate Soares tirent la sonnette d'alarme : le monde a besoin de coordination et de planification immédiate avant que ces "mauvaises options" ne deviennent les seules restantes.



