L’essor rapide de l’intelligence artificielle suscite des inquiétudes croissantes dans les milieux de la sécurité internationale. En 2025, deux séries d’analyses, menées séparément en Chine et aux États-Unis, ont mis en lumière les risques potentiels d’un usage malveillant de ces technologies par des organisations terroristes. Les conclusions convergent sur un point central : l’IA pourrait abaisser fortement le seuil d’accès à des connaissances et à des outils jusqu’ici réservés à des acteurs étatiques ou à des spécialistes de haut niveau.
Le cadre chinois de gouvernance de la sûreté de l’IA
À l’automne 2025, les autorités chinoises ont rendu public un document intitulé « AI Safety Governance Framework 2.0 ». Ce texte, élaboré sous la supervision de l’État, dresse un inventaire détaillé des risques associés aux systèmes d’intelligence artificielle avancés.
Le document souligne notamment que les modèles d’IA sont entraînés à partir de vastes ensembles de données comprenant des connaissances théoriques relatives aux domaines nucléaire, biologique, chimique et balistique. Selon les auteurs, un contrôle insuffisant de ces données pourrait permettre à des groupes extrémistes d’acquérir des compétences techniques leur donnant la capacité de concevoir, fabriquer ou utiliser des armes dites NRBC.
La crainte d’une perte de contrôle sur les technologies sensibles
Le texte chinois évoque explicitement une « perte de contrôle » possible sur les connaissances liées aux armes de destruction massive. Il met également en garde contre l’utilisation de l’IA dans des activités criminelles plus classiques, telles que le trafic de stupéfiants, les jeux clandestins ou la dissimulation d’activités illégales, grâce à l’automatisation et à l’apprentissage de techniques complexes.
Un autre volet concerne ce que Pékin qualifie de « guerre cognitive ». L’IA pourrait être utilisée pour produire et diffuser massivement des contenus de propagande, influencer des populations via des agents conversationnels automatisés et perturber les systèmes sociaux et politiques d’États étrangers.
L’exigence d’un contrôle humain permanent
Face à ces risques, le cadre chinois insiste sur la nécessité de maintenir un contrôle humain à toutes les étapes critiques du fonctionnement des systèmes d’IA. Le document recommande la mise en place de mécanismes de sécurité, y compris des dispositifs d’arrêt d’urgence, afin de garantir que la décision finale demeure entre les mains d’opérateurs humains.
Les autorités chinoises appellent également à une coordination internationale, estimant que la perte de contrôle sur des systèmes avancés représenterait un danger global dépassant les frontières nationales.
Les analyses américaines présentées à la conférence de Munich
Parallèlement, plusieurs experts occidentaux se sont exprimés lors de la conférence sur la sécurité de Munich, organisée après le Sommet de Paris consacré à l’intelligence artificielle. Ces travaux ont été soutenus par l’ONG américaine Nuclear Threat Initiative, spécialisée dans la prévention de la prolifération des armes de destruction massive.
Les intervenants ont mis l’accent sur la convergence entre intelligence artificielle et sciences du vivant, jugée particulièrement sensible dans le domaine de la biosécurité.
Un scénario de pandémie artificielle simulé
Un exercice de simulation a été présenté lors de cette conférence. Il reposait sur l’hypothèse d’une attaque terroriste déclenchant une pandémie mondiale à partir d’un virus conçu à l’aide d’outils d’IA. Le scénario évoquait plusieurs centaines de millions de personnes infectées et des dizaines de millions de décès.
Selon un sénateur américain cité lors des discussions, le secteur de la biosécurité constituerait aujourd’hui le champ de risque le plus élevé lié à l’IA, en raison de la facilité croissante d’accès aux outils de conception génétique et aux bases de données scientifiques.
L’abaissement du seuil d’accès au savoir scientifique
Les experts soulignent que l’IA modifie profondément la diffusion des connaissances. Des opérations complexes, nécessitant auparavant des années de formation spécialisée, peuvent désormais être partiellement assistées par des systèmes automatisés capables de fournir des protocoles, des simulations ou des optimisations.
Dans le domaine biologique, il est déjà possible de commander à distance des fragments d’ADN destinés à la recherche. Bien que des contrôles existent, les spécialistes estiment que l’IA pourrait aider à contourner certains dispositifs de filtrage, en masquant la finalité réelle des commandes ou en optimisant des séquences génétiques dangereuses.
Des capacités accrues pour la propagande et le recrutement
Outre les aspects scientifiques, les analyses occidentales rejoignent les préoccupations chinoises sur l’usage de l’IA pour la communication. Génération automatisée de messages, création de faux contenus vidéo ou audio, multiplication de comptes artificiels sur les réseaux sociaux : autant de techniques susceptibles d’amplifier la portée de la propagande terroriste et de faciliter le recrutement.
Des groupes djihadistes ont déjà démontré leur capacité d’adaptation aux nouvelles technologies numériques, notamment dans le domaine de la diffusion en ligne.
Les pistes de prévention évoquées par les spécialistes
Les différentes études convergent vers plusieurs recommandations : renforcement des contrôles sur les données utilisées pour l’entraînement des modèles, surveillance accrue des commandes de matériel biologique, coopération internationale en matière de normes techniques et développement de systèmes de détection des usages malveillants.
Les experts estiment toutefois que la rapidité des progrès technologiques rend cette course aux garde-fous particulièrement difficile, chaque avancée ouvrant de nouvelles possibilités, tant civiles que criminelles.
L’intelligence artificielle apparaît ainsi comme un facteur de transformation majeur des équilibres sécuritaires, dont les bénéfices et les risques progressent désormais au même rythme.

