Le Future of Life Institute, une ONG spécialisée dans la sécurité de l’IA, a évalué huit grandes entreprises du secteur. Selon le rapport, toutes manquent de dispositifs concrets de protection, de supervision indépendante et de stratégies crédibles de gestion des risques à long terme.
Classement des entreprises
Les entreprises américaines ont obtenu les meilleures notes, avec Anthropic en tête, devant OpenAI (ChatGPT) et Google DeepMind.
Les sociétés chinoises ont obtenu les scores les plus faibles, Alibaba Cloud se situant juste derrière DeepSeek.
Aucune entreprise n’a obtenu mieux qu’un D concernant le risque existentiel, et certaines comme Alibaba Cloud, DeepSeek, Meta, xAI et Z.ai ont reçu un F.
Risques et avertissements
Le rapport souligne que la sécurité existentielle reste un échec structurel majeur du secteur. « Alors que les ambitions autour de l’AGI et de la superintelligence s’accélèrent, aucune entreprise n’a présenté de plan crédible pour prévenir un usage catastrophique ou une perte de contrôle », avertissent les auteurs.
Les chercheurs appellent les entreprises à plus de transparence sur leurs évaluations internes et à protéger les utilisateurs contre les dommages immédiats, tels que les dérèglements psychologiques induits par l’IA.
Stuart Russell, professeur à l’Université de Berkeley, insiste : « Les PDG d’IA affirment savoir construire une IA surhumaine, mais aucun ne peut démontrer comment éviter la perte de contrôle, après quoi la survie de l’humanité n’est plus entre nos mains. »
Réactions des entreprises
OpenAI indique collaborer avec des experts indépendants pour « construire des garde-fous solides et tester rigoureusement nos modèles ».
Google précise que son Frontier Safety Framework définit des protocoles pour identifier et atténuer les risques graves avant qu’ils ne se matérialisent.
Les représentants d’Alibaba Cloud, Anthropic, DeepSeek, xAI et Z.ai n’ont pas encore répondu aux sollicitations de la presse.
Classement des entreprises
Les entreprises américaines ont obtenu les meilleures notes, avec Anthropic en tête, devant OpenAI (ChatGPT) et Google DeepMind.
Les sociétés chinoises ont obtenu les scores les plus faibles, Alibaba Cloud se situant juste derrière DeepSeek.
Aucune entreprise n’a obtenu mieux qu’un D concernant le risque existentiel, et certaines comme Alibaba Cloud, DeepSeek, Meta, xAI et Z.ai ont reçu un F.
Risques et avertissements
Le rapport souligne que la sécurité existentielle reste un échec structurel majeur du secteur. « Alors que les ambitions autour de l’AGI et de la superintelligence s’accélèrent, aucune entreprise n’a présenté de plan crédible pour prévenir un usage catastrophique ou une perte de contrôle », avertissent les auteurs.
Les chercheurs appellent les entreprises à plus de transparence sur leurs évaluations internes et à protéger les utilisateurs contre les dommages immédiats, tels que les dérèglements psychologiques induits par l’IA.
Stuart Russell, professeur à l’Université de Berkeley, insiste : « Les PDG d’IA affirment savoir construire une IA surhumaine, mais aucun ne peut démontrer comment éviter la perte de contrôle, après quoi la survie de l’humanité n’est plus entre nos mains. »
Réactions des entreprises
OpenAI indique collaborer avec des experts indépendants pour « construire des garde-fous solides et tester rigoureusement nos modèles ».
Google précise que son Frontier Safety Framework définit des protocoles pour identifier et atténuer les risques graves avant qu’ils ne se matérialisent.
Les représentants d’Alibaba Cloud, Anthropic, DeepSeek, xAI et Z.ai n’ont pas encore répondu aux sollicitations de la presse.


« Most harmful » AI : les applications comme ChatGPT et Gemini pointées du doigt dans une étude sur la sécurité
