« Most harmful » AI : les applications comme ChatGPT et Gemini pointées du doigt dans une étude sur la sécurité

Décembre 2025 – Une nouvelle étude sur la sécurité de l’intelligence artificielle révèle que la majorité des entreprises spécialisées dans l’IA ne gèrent pas correctement les risques catastrophiques associés à leurs technologies.


Rédigé par Kamalenba le Mercredi 10 Décembre 2025 à 01:09

Le Future of Life Institute, une ONG spécialisée dans la sécurité de l’IA, a évalué huit grandes entreprises du secteur. Selon le rapport, toutes manquent de dispositifs concrets de protection, de supervision indépendante et de stratégies crédibles de gestion des risques à long terme.

Classement des entreprises

Les entreprises américaines ont obtenu les meilleures notes, avec Anthropic en tête, devant OpenAI (ChatGPT) et Google DeepMind.

Les sociétés chinoises ont obtenu les scores les plus faibles, Alibaba Cloud se situant juste derrière DeepSeek.

Aucune entreprise n’a obtenu mieux qu’un D concernant le risque existentiel, et certaines comme Alibaba Cloud, DeepSeek, Meta, xAI et Z.ai ont reçu un F.

Risques et avertissements

Le rapport souligne que la sécurité existentielle reste un échec structurel majeur du secteur. « Alors que les ambitions autour de l’AGI et de la superintelligence s’accélèrent, aucune entreprise n’a présenté de plan crédible pour prévenir un usage catastrophique ou une perte de contrôle », avertissent les auteurs.

Les chercheurs appellent les entreprises à plus de transparence sur leurs évaluations internes et à protéger les utilisateurs contre les dommages immédiats, tels que les dérèglements psychologiques induits par l’IA.

Stuart Russell, professeur à l’Université de Berkeley, insiste : « Les PDG d’IA affirment savoir construire une IA surhumaine, mais aucun ne peut démontrer comment éviter la perte de contrôle, après quoi la survie de l’humanité n’est plus entre nos mains. »

Réactions des entreprises

OpenAI indique collaborer avec des experts indépendants pour « construire des garde-fous solides et tester rigoureusement nos modèles ».

Google précise que son Frontier Safety Framework définit des protocoles pour identifier et atténuer les risques graves avant qu’ils ne se matérialisent.

Les représentants d’Alibaba Cloud, Anthropic, DeepSeek, xAI et Z.ai n’ont pas encore répondu aux sollicitations de la presse.

Dans la même rubrique :