Une note de la DGSI alerte les entreprises françaises sur les risques liés à l’usage professionnel de l’intelligence artificielle. Derrière cette prévention se dessine surtout la difficulté de l’État à suivre une transformation technologique qu’il ne maîtrise plus.

L’utilisation de l’Intelligence artificielle (IA) dans le monde professionnel inquiète la Direction générale de la sécurité intérieure (DGSI). L’organisme spécialisé dans le contre-espionnage a lancé une mise en garde sur les risques liés au recours à cette technologie dans une note diffusée auprès de nombreuses entreprises en France. Dans ce document officiel, la DGSI souligne l’importance de la supervision humaine.
Une longue liste de dangers établie par la DGSI
Connue pour mener des investigations visant à lutter contre l’espionnage, le terrorisme et les ingérences étrangères, la DGSI possède une autre mission importante. Il s’agit de veiller sur la sécurité économique de l’Etat et des entreprises. Le service de renseignement français vient justement de diffuser une note alertant plusieurs entreprises sur les risques opérationnels, financiers et stratégiques liés à l’adoption de l’Intelligence artificielle.

Le recours à des systèmes d’IA s’intensifie dans le monde professionnel. Dans sa note de 7 pages, la DGSI a souligné que ce sont des outils performants, pouvant garantir de nombreux avantages pour ne citer que les gains de productivité. Mais leur usage a son lot de dérive. Ce document officiel diffusé au début de l’année 2026 dévoile justement plusieurs incidents liés à l’utilisation des outils d’IA générative grand public par les salariés de quelques entreprises en France. Elles ont été victimes d’arnaques et de vols.
Selon la DGSI, la fuite d’informations sensibles constitue un danger imminent, vu que les fournisseurs d’IA peuvent y accéder et les exploiter. Elle a surtout évoqué l’usage non autorisé des contrats, des documents internes confidentiels et des données stratégiques par des plateformes étrangères, une menace réelle pour les sociétés de l’Hexagone. « Les versions grand public des principaux outils d’IA générative, gratuites et standards, utilisent souvent les données entrées par l’utilisateur pour entraîner leurs modèles », a indiqué le service de renseignement dans sa note.
L’importance de la supervision humaine
Au-delà des fuites d’informations, la DGSI alerte sur une confiance excessive accordée aux systèmes d’intelligence artificielle. Ces outils reposent sur des probabilités statistiques, non sur une compréhension fine des réalités économiques ou juridiques. Résultat : recommandations erronées, biais invisibles, voire hallucinations factuelles.
La note souligne que certaines entreprises ont pris des décisions stratégiques en s’appuyant quasi exclusivement sur des résultats générés par l’IA, sans contrôle humain suffisant. Une dérive révélatrice d’un management fasciné par l’automatisation, mais peu soucieux de responsabilité.

Officiellement, la DGSI appelle à maintenir une supervision humaine et à mieux encadrer l’usage de l’IA. Un discours de prudence légitime. Mais cette alerte s’inscrit aussi dans une tendance plus large : celle d’un État qui découvre, après coup, les conséquences d’outils qu’il n’a ni régulés intelligemment ni encouragés dans un cadre concurrentiel sain.
L’intelligence artificielle n’est ni un danger en soi ni une solution miracle. Elle révèle surtout les failles organisationnelles des entreprises et l’incapacité chronique des pouvoirs publics à anticiper l’innovation. La sécurité ne se décrète pas par note administrative : elle se construit par la responsabilité, la formation et la liberté de choix technologique.




