Une alerte de la DGSI sur l’usage de l’IA en entreprise

DR

La Direction générale de la sécurité intérieure (DGSI), chargée notamment de la sécurité économique de l’État, a diffusé une note destinée aux dirigeants d’entreprises françaises, mettant en garde contre des dangers réels liés à l’intégration de l’intelligence artificielle (IA) dans les activités professionnelles.

Des risques de fuite et d’exposition des données sensibles

La DGSI souligne que l’introduction d’outils d’IA « grand public » au sein des systèmes d’information des sociétés pose un risque sérieux de divulgation involontaire d’informations sensibles.

  • Des salariés auraient copié-collé des documents internes dans des plateformes d’IA générative non sécurisées.
  • Ces plateformes peuvent stocker ces données sur des serveurs étrangers, notamment aux États-Unis, où des législations extra-territoriales s’appliquent.
  • Des fuites d’informations ou des réutilisations non autorisées peuvent s’ensuivre, exposant l’entreprise à des poursuites ou à des attaques.

Une dépendance dangereuse aux décisions automatisées

La note rapporte des cas concrets où l’usage de l’IA a conduit à une perte de contrôle des décisions stratégiques :

  • Une société a laissé un outil d’IA produire des évaluations complètes de partenaires étrangers sans vérification humaine.
  • Cette absence de supervision humaine a conduit à une confiance excessive dans des résultats automatisés, parfois imprécis ou biaisés.

La DGSI insiste : une IA ne garantit pas l’exactitude ou la pertinence absolue des résultats, car elle repose sur des algorithmes statistiques qui peuvent générer des informations erronées ou fabriquées — ce que l’on appelle des « hallucinations ».

Des attaques plus sophistiquées grâce aux deepfakes

Un autre point soulevé concerne l’utilisation d’IA par des acteurs malveillants :

  • Des fraudeurs ont réussi à usurper l’apparence et la voix d’un dirigeant lors d’une visioconférence.
  • Ce deepfake avancé visait à convaincre un responsable d’effectuer un transfert de fonds.

Pour la DGSI, ces pratiques révèlent que l’IA n’est pas seulement une aide technique, mais aussi un outil d’ingénierie sociale et de manipulation potentiellement dévastateur si les entreprises ne se prémunissent pas contre ces techniques.

Recommandations pour encadrer l’usage de l’IA

Face à ces constats, la DGSI propose plusieurs mesures concrètes :

  • Établir des chartes internes strictes définissant l’usage autorisé de l’IA.
  • Prioriser des solutions d’IA locales ou contrôlées, plutôt que des services publics étrangers.
  • Former les équipes régulièrement, afin qu’elles comprennent les limites et les risques associés.
  • Interdire la soumission de données sensibles ou personnelles aux outils d’IA générative non vérifiés.

Une prise de conscience nécessaire

Ce document de la DGSI invite les dirigeants à ne pas aborder l’intelligence artificielle comme un simple outil de productivité, mais comme un vecteur de risques tangibles qui requiert une gouvernance rigoureuse.

Pour les entreprises, la question n’est plus seulement d’adopter l’IA, mais de maîtriser ses usages et d’en encadrer les dérives potentielles, sous peine de compromettre leur sécurité opérationnelle et économique.

1 Commentaire
Commentaires en ligne
Afficher tous les commentaires


Le Journal des Francais