Sommaire
L’IA fantôme désigne l’utilisation d’outils et d’applications d’IA au sein d’une organisation à l’insu et sans l’autorisation du service informatique. Les employés utilisent ces outils de leur propre chef pour gagner en efficacité et accomplir des tâches urgentes. Il en résulte un écosystème d’IA fantôme qui échappe à la visibilité de l’équipe de sécurité, ce qui est bien plus dangereux que l’informatique fantôme traditionnelle.
Alors que le shadow IT concerne le stockage personnel dans le cloud et les applications de messagerie non approuvées, le shadow AI contourne le contrôle direct en utilisant des modèles d’IA externes pour analyser les données sensibles de l’organisation et produire des résultats hautement imprévisibles et potentiellement préjudiciables.
Un rapport publié en 2025 par Menlo, qui a suivi des centaines de milliers de saisies d’utilisateurs pendant un mois, a mis en évidence les risques liés à l’utilisation non réglementée de l’IA par les employés. Il a révélé que 68 % des employés utilisaient des comptes personnels pour accéder à des outils d’IA gratuits tels que ChatGPT, et que 57 % d’entre eux utilisaient des données sensibles. Il a également montré comment les systèmes d’IA s’adaptent aux saisies des utilisateurs et divulguent au public des données sensibles de l’organisation.
L’utilisation de l’IA parallèle s’est amplifiée avec l’essor de la technologie d’IA générative, qui s’est généralisée à la fin de l’année 2022. Cette technologie est très accessible : la plupart des outils sont basés sur un navigateur et fonctionnent dans le cloud. Les employés utilisent également quotidiennement des produits SaaS intégrant l’IA. La pression exercée sur les employés pour qu’ils produisent rapidement des résultats ne cesse d’augmenter.
Les gens trouvent leurs propres solutions lorsque l’adoption officielle de l’IA progresse lentement dans les canaux d’approbation. Il existe toujours un écart entre les besoins des employés et ce que leur fournit le service informatique.
La formation à la cybersécurité commence ici
Votre évaluation gratuite fonctionne comme suit :
- Prenez rendez-vous avec nos experts en cybersécurité afin qu’ils évaluent votre environnement et déterminent votre exposition aux menaces.
- Sous 24 heures et avec une configuration minimale, nous déployons nos solutions pour une durée de 30 jours.
- Découvrez nos technologies en action !
- Recevez un rapport mettant en évidence les vulnérabilités de votre dispositif de sécurité afin que vous puissiez prendre des mesures immédiates pour contrer les attaques de cybersécurité.
Remplissez ce formulaire pour demander un entretien avec nos experts en cybersécurité.
Un représentant de Proofpoint vous contactera sous peu.
Pourquoi le shadow AI est-il important en 2025 ?
L’IA fantôme crée des angles morts que même les systèmes de sécurité les plus sophistiqués ne peuvent résoudre. Les RSSI sont confrontés à une surface d’attaque croissante, non surveillée et non protégée. Selon IBM, une violation sur cinq dans les entreprises est attribuée à l’IA fantôme, et celles qui sont davantage touchées par les violations liées à l’IA fantôme ont des coûts en moyenne supérieurs de 670 000 dollars à celles qui sont moins touchées ou qui ne sont pas touchées par l’IA fantôme.
Les ingénieurs qui ne parviennent pas à remplir la documentation requise sur le flux de travail de l’IA perdent la capacité de contrôler les vulnérabilités du système, et l’utilisation de systèmes de production non testés et non validés gagne du terrain. Les lacunes en matière de conformité deviennent plus problématiques pour les équipes chargées des politiques, car les employés ne tiennent pas compte des cadres de gouvernance existants. L’explosion des investissements dans l’IA générative et l’IA agentique accentue ce défi.
Selon le rapport de Menlo, les sites web consacrés à l’IA ont enregistré une augmentation de 50 % du trafic web entre février 2024 et janvier 2025, pour un total de 10,53 milliards de visites mensuelles. La culture du « bring your own AI » (apportez votre propre IA) est en plein essor, plus de 60 % des utilisateurs s’appuyant sur des outils d’IA personnels et non gérés plutôt que sur des outils approuvés par l’entreprise. Patrick Pushor, architecte solutions senior chez Acuvity, a récemment publié : « Près de la moitié des organisations s’attendent à un incident lié à l’IA parallèle au cours des 12 prochains mois », une conclusion frappante tirée du dernier rapport 2025 State of AI Security Report de l’entreprise. Pourtant, la supervision de haut niveau n’a jamais été aussi déconnectée de l’adoption de l’IA par les employés.
Caractéristiques clés et causes de l’IA fantôme
L’IA fantôme est évidente dans les grands modèles linguistiques publics (LLM) tels que ChatGPT et Claude, mais elle peut également se cacher à la vue de tous. Les fonctionnalités d’IA intégrées dans les outils SaaS autorisés peuvent également s’activer à l’insu du service informatique. Par exemple, les équipes marketing utilisent des assistants de rédaction IA pour composer des campagnes entières. Les commerciaux utilisent des outils IA pour automatiser les réponses aux emails des clients. Les analystes financiers copient des données dans des chatbots pour créer des résumés. Ce phénomène est omniprésent et touche tous les services et toutes les fonctions, et pas seulement les équipes techniques.
Les causes peuvent se résumer à la pression et à l’accès. Les employés travaillent sous pression pour être plus performants et plus rapides, avec moins de ressources. Lorsque les processus internes d’approbation de l’IA avancent à un rythme glacial ou ne fournissent aucune réponse, les gens trouvent leurs propres moyens. La plupart des outils d’IA générative sont faciles d’accès : il suffit d’une adresse email et d’un navigateur web.
De plus, de nombreuses organisations ne disposent pas de politiques claires sur les outils d’IA, notamment sur ce qui est acceptable, ce qui ne l’est pas et ce qui est sanctionné. D’après une étude de S&P Global, « un peu plus d’un tiers (36 %) ont une politique dédiée à l’IA ou une politique intégrée à d’autres politiques de gouvernance ». Le fossé entre les besoins des employés et ce que leur offre le système de gouvernance ne cesse de se creuser.
Risques liés à l’IA fantôme
L’IA fantôme crée une menace unique et complexe qui touche tous les piliers de la sécurité d’entreprise. Ces risques comprennent des problèmes immédiats tels que l’exposition et la violation des données, ainsi que des problèmes à long terme liés à la conformité et au fonctionnement.
Fuite et exposition des données
Les employés copient-collent des données sensibles et exclusives dans des outils d’IA non approuvés, ce qui expose ces données et entraîne une violation de la sécurité. On a observé que 77 % des employés partageaient des informations sensibles et exclusives à l’aide d’outils tels que ChatGPT. Lorsque des incidents de violation impliquant l’IA fantôme se produisent, les conclusions d’IBM révèlent que dans 65 % des cas, ils concernent des informations personnelles identifiables compromises, et dans 40 % des cas, ils concernent la propriété intellectuelle exposée.
Non-conformité et violations réglementaires
L’utilisation non réglementée de l’IA crée des lacunes dans la gouvernance des données, ce qui peut exposer une entité à des risques en matière de conformité aux lois sur la confidentialité des données, telles que le RGPD, ainsi qu’aux normes industrielles. La plupart des organisations ne contrôlent pas le flux de données sensibles et les outils utilisés par leurs employés. Cette lacune rend presque impossible de démontrer la conformité lors d’un audit, ainsi que de répondre aux demandes des personnes concernées.
Résultats des modèles et intégrité des preuves décisionnelles
Les outils d’IA non réglementés fournissent des données non contrôlées, biaisées, fausses ou fabriquées, que les employés intègrent ensuite dans leur prise de décision. Les erreurs de données peuvent compromettre les opérations essentielles au niveau de l’entreprise. Les flux non réglementés créent une situation dans laquelle des données erronées et inexactes peuvent circuler entre les opérations sans être détectées pendant longtemps.
Coût et risque opérationnel
Comme mentionné ci-dessus, les incidents liés à l’IA fantôme augmentent le coût d’une violation de données de 670 000 dollars. Les organisations hébergent sans le savoir en moyenne 1 200 applications non officielles qui entraînent des dépenses en double, des flux de travail fragmentés et une surface d’attaque élargie. Les lacunes en matière de gouvernance et de contrôle, ou « zones d’ombre », deviennent plus importantes et plus complexes à gérer au fil du temps.
Risques liés à la sécurité et au contrôle d’accès
Les risques liés à l’identité et à l’accès non surveillés de l’IA fantôme exposent à des menaces de sécurité. Une organisation moyenne compte 15 000 utilisateurs fantômes et, de par leur conception, ces identifiants inutiles et inactifs constituent une menace lorsqu’ils sont accessibles par des outils non autorisés. Les employés qui partagent leurs mots de passe avec des assistants IA créent des portes dérobées, et le délai moyen pour y remédier est de 94 jours.
Cadres et meilleures pratiques pour gérer l’IA fantôme
Au-delà de la simple détection de l’IA fantôme, sa gestion nécessite une approche bien planifiée et coordonnée qui concilie sécurité et productivité. Les meilleures stratégies permettent de visualiser l’utilisation de l’IA, d’établir des cadres de gouvernance définissables, de fournir les outils appropriés et d’élaborer des politiques applicables. La clé du succès réside dans le fait de considérer la gouvernance de l’IA comme un processus continu plutôt que comme un projet ponctuel.
Découverte et inventaire des outils d’IA utilisés. Vous ne pouvez pas gérer ce que vous ne voyez pas. Utilisez la surveillance du réseau, des passerelles Web sécurisées et des outils CASB pour trouver les domaines d’IA et envoyer des invites sur votre réseau. Demandez aux équipes quels outils elles utilisent et quelles données elles consultent. Créez un inventaire vivant qui associe chaque outil à des unités commerciales, des éléments de données et des cas d’utilisation spécifiques.
Évaluation et hiérarchisation des risques. Toutes les IA fantômes ne présentent pas le même risque. Classez les outils que vous avez répertoriés comme inacceptables, à haut risque, à risque modéré ou à faible risque, en tenant compte de la sensibilité des données, de l’exposition réglementaire et de l’impact commercial. Une carte thermique des risques indiquera les cas qui se trouvent dans la zone dangereuse et méritent une attention immédiate, ce qui vous permettra de concentrer vos efforts sur les menaces les plus critiques en premier lieu.
Élaboration et application des politiques. Définissez les outils d’IA approuvés, les procédures de demande de nouveaux outils et les directives relatives à la gestion des données sensibles. Mettez en place des garde-fous techniques là où le travail est réellement effectué. Contrôlez l’accès et refusez les outils arbitraires à l’aide de listes d’autorisation et de refus de proxy. Utilisez des outils de prévention des pertes de données pour empêcher le téléchargement de données vers des outils non approuvés et proposez des alternatives de routage sécurisées aux modèles approuvés. Les politiques doivent favoriser l’innovation.
Formation et changement culturel. L’IA fantôme est souvent le fruit d’une ignorance bénigne. Protégez votre organisation grâce à des formations spécifiques à chaque rôle, utilisant des scénarios réels liés au travail. Encouragez les équipes à partager les outils d’IA qu’elles utilisent et permettez-leur de le faire sans crainte de représailles. Lorsque les dirigeants démontrent de manière cohérente la culture souhaitée, le respect des politiques est presque garanti.
Intégration de la cybersécurité. La gouvernance de l’IA doit s’articuler avec vos programmes existants en matière de protection des données, de contrôle d’accès et de risques internes. Attribuez des responsabilités transversales couvrant les domaines de l’informatique, de la sécurité, du juridique, des finances et des ressources humaines. La surveillance en temps réel de l’utilisation de l’IA et des transferts de données volumineux vers des outils d’IA doit être signalée comme anormale. Des audits réguliers permettent de mettre en évidence les modèles d’utilisation qui aident à affiner la gouvernance et à révéler les lacunes de vos offres autorisées.
Qui devrait être responsable de la gouvernance de l’IA parallèle ?
Aucune équipe ne peut être seule responsable de la gouvernance de l’IA parallèle. Les risques dépassent les limites de la sécurité, de la conformité, de l’infrastructure et des opérations commerciales. Les organisations qui réussissent répartissent ces responsabilités fragmentées et encouragent la collaboration entre les services.
La fonction de surveillance des risques est confiée aux équipes chargées de la sécurité et au responsable de la sécurité des systèmes d’information (RSSI). Elles repèrent les menaces potentielles, évaluent le niveau d’exposition et identifient les utilisations de l’IA qui créent des vulnérabilités inacceptables. Elles doivent superviser l’utilisation de l’IA non autorisée et vérifier l’équilibre avec les autres collaborateurs en ce qui concerne les besoins commerciaux et la sécurité des incidents. La gouvernance est facilitée lorsque les responsables de la sécurité sont des intermédiaires de haut niveau et non des obstacles.
L’architecture et la mise en œuvre technique relèvent de la responsabilité des équipes informatiques et d’ingénierie. Elles vérifient les outils d’IA à la recherche de failles de sécurité et développent des outils d’IA sécurisés que les employés trouvent utiles et souhaitent utiliser. Elles sont responsables des registres d’IA, des places de marché et de l’application des politiques d’utilisation et d’accès à l’IA au niveau des couches réseau et application. Parallèlement, les équipes CISO veillent à ce que la gouvernance de l’IA reste conforme au RGPD, aux normes industrielles et aux obligations contractuelles. Elles évaluent les pratiques de traitement des données, supervisent les accords avec les fournisseurs et facilitent les audits de l’organisation.
Les équipes chargées de la conformité et des questions juridiques traduisent les exigences réglementaires en politiques pratiques et applicables. Lorsque les employés comprennent pourquoi certaines politiques sont en place, associées à des outils autorisés de haute qualité, le respect des politiques devient automatique et non contraignant. Les dirigeants doivent eux-mêmes donner l’exemple en utilisant les outils appropriés.
Cette culture de conformité axée sur le leadership nécessite une gouvernance structurée pour maintenir l’élan, ce qui rend crucial l’intégration de canaux de rétroaction interfonctionnels dans les disciplines concernées. Les organisations doivent se réunir fréquemment pour examiner les politiques, évaluer les nouveaux outils développés et atténuer les risques apparus depuis la dernière réunion. La gouvernance collaborative permet aux équipes de se concentrer sur l’essentiel, en évitant à la fois les failles de sécurité et les formalités administratives inutiles.
Défis liés à la mise en œuvre d’une gouvernance de l’IA parallèle
Même les organisations qui investissent massivement dans la gouvernance de l’IA se heurtent à des obstacles importants. Les cycles politiques sont trop longs à mettre en œuvre, compte tenu de la rapidité avec laquelle le paysage évolue. La plupart des contrôles informatiques sont trop basiques pour traiter les risques spécifiques à l’IA.
- Évolution rapide des outils d’IA. Les capacités de l’IA sont si avancées que de nouveaux outils apparaissent chaque semaine et que les plateformes existantes ajoutent des fonctionnalités d’IA sans préavis. Avant même que l’équipe de sécurité n’ait évalué un outil, les employés ont déjà accès à trois outils non vérifiés et n’ont aucune raison d’arrêter de les utiliser.
- Non-respect des politiques. Les employés considèrent la gouvernance comme un frein et l’abandonnent lorsque les processus d’approbation prennent des semaines, alors que les outils d’IA gratuits sont accessibles instantanément. Lorsque les outils fournis officiellement n’offrent pas les capacités et la commodité des outils grand public, l’adoption parallèle devient inévitable.
- Difficulté à surveiller les outils utilisés. L’IA fonctionne différemment du SaaS traditionnel. Elle peut être intégrée à des plateformes approuvées ou fonctionner localement sans aucune signature réseau. La plupart des organisations ne disposent pas des moyens techniques nécessaires pour suivre les activités de l’IA, ce qui laisse les équipes de sécurité dans le flou.
- La nécessité de mettre en place davantage de politiques spécifiques à l’IA. La plupart des organisations ne disposent pas de politiques traitant des risques spécifiques à l’IA, tels que les résultats des modèles, l’injection de commandes ou la formation des données. Les politiques informatiques générales ne tiennent pas compte des préoccupations particulières en matière de conformité et d’éthique que soulève l’IA. Si les politiques sont trop restrictives, une adoption parallèle se produira, et si elles sont trop laxistes, l’organisation risque d’être exposée.
Outils de détection de l’IA fantôme
Pour détecter l’IA fantôme, il est important de disposer de plusieurs niveaux comprenant des outils permettant d’analyser le trafic réseau, les applications, les activités des utilisateurs et les mouvements de données. Il n’existe pas de méthode unique capable de tout détecter. Les outils les plus efficaces utilisent diverses techniques pour comprendre parfaitement comment et où les outils d’IA apparaissent et sont utilisés par les employés.
Plateformes de découverte de l’utilisation de l’IA
Ces outils sont spécialisés dans la gestion des inventaires des applications d’IA utilisées par les employés et permettent de mettre au jour les environnements d’entreprise qui ont été démocratisés grâce à ces outils. À l’aide de l’apprentissage automatique, ces outils détectent les services d’IA établis tels que ChatGPT, Gemini et Claude, ainsi que les services nouvellement développés qui échappent aux autres outils de découverte traditionnels. Les plateformes de découverte examinent les transactions et les rapports financiers, l’utilisation des navigateurs et le trafic réseau afin d’analyser l’étendue de l’utilisation de l’IA.
Courtiers en sécurité d’accès au cloud (CASB)
Les CASB améliorent la surveillance traditionnelle des applications SaaS en ajoutant des fonctionnalités de gouvernance de l’IA. Les solutions CASB offrent une surveillance en temps réel de l’utilisation des services d’IA par les employés et peuvent appliquer des politiques contextuelles dépendantes de l’IA. Les dernières solutions CASB fournissent une évaluation des risques basée sur l’IA des données traitées et du trafic IA entrant et sortant de l’entreprise grâce à une inspection approfondie des paquets.
Systèmes de prévention des pertes de données (DLP)
Les outils DLP intégrant l’IA reconnaissent automatiquement lorsque les employés partagent des informations sensibles avec des outils IA non autorisés. Ils analysent le contenu au niveau de l’invite pour les saisies, les téléchargements de fichiers et les collages dans le presse-papiers afin de détecter le partage de documents et de vérifier la présence des principaux chatbots, notamment ChatGPT, Copilot, Claude, Gemini et Perplexity. Les solutions DLP avancées disposent d’un service contextuel qui réduit encore davantage les faux positifs et explique la raison du transfert de données.
Surveillance de la gestion des identités et des accès (IAM)
Les systèmes IAM surveillent le partage des identifiants et les modèles d’utilisation afin de vérifier l’authentification des employés aux services d’IA et de suivre le partage de documents avec l’IA. Les systèmes IAM proactifs vérifient même les soumissions contrôlées au niveau des fichiers, gèrent le contrôle d’accès et signalent les comptes inactifs. Les systèmes SIEM intègrent une gestion spécifique des identités et une utilisation prédictive de l’IA. Des alertes en temps réel sur les seuils d’utilisation de l’IA suivis de manière dynamique sont disponibles pour les exportations de documents et les fuites de données importantes.
Plateformes d’analyse comportementale
Ces systèmes utilisent l’apprentissage automatique pour établir des références en matière d’utilisation normale de l’IA et identifier les anomalies qui indiquent d’éventuelles violations des politiques. Ils attribuent des scores de risque comportemental aux utilisateurs en fonction de leurs modèles d’interaction avec l’IA et peuvent prédire quels employés sont susceptibles d’utiliser à mauvais escient les outils d’IA avec des données sensibles. Les plateformes avancées effectuent un profilage psychologique pour comprendre non seulement ce que les utilisateurs font avec l’IA, mais aussi pourquoi ils le font. L’analyse comportementale devient plus précise au fil du temps, car elle apprend en permanence à partir de nouveaux modèles.
Outils d’analyse du trafic réseau
Même lorsque les applications cryptent leurs communications, les solutions de surveillance du réseau peuvent toujours identifier l’utilisation de l’IA en reconnaissant les modèles dans le trafic. Ces outils identifient les empreintes digitales des applications d’IA, surveillent l’utilisation de la bande passante et détectent les volumes anormaux de transferts de données qui suggèrent une utilisation abusive des outils pour exfiltrer des données. Les plateformes d’accès réseau zéro confiance appliquent des politiques de vérification à chaque interaction avec l’IA, quel que soit l’emplacement ou l’appareil de l’utilisateur. Cette approche empêche l’exfiltration de données via les canaux d’IA tout en préservant l’expérience utilisateur.
FAQ
Comment savoir si mon entreprise est confrontée à un problème d’IA fantôme ?
Pour identifier si votre entreprise est confrontée à des problèmes liés à l’IA fantôme, recherchez d’abord des schémas tels que des accès étranges aux données, des augmentations inexpliquées du trafic cloud et des résultats d’IA produits en dehors des outils autorisés. Comme l’IA fantôme fonctionne derrière le trafic crypté du navigateur, les outils de sécurité traditionnels peuvent ne pas la détecter, et vous aurez peut-être besoin d’outils de détection spécialisés pour mieux comprendre la situation. La probabilité d’adoption fantôme augmente si votre entreprise ne dispose pas de politiques officielles en matière d’IA ou si votre processus d’approbation informatique est lent et bureaucratique.
Quelles questions un RSSI devrait-il poser au sujet de l’IA parallèle ?
Proposez une séquence commençant par la visibilité : à quels outils d’IA les employés ont-ils accès et quelles sont les données qu’ils saisissent ? Passez ensuite à la gouvernance : disposons-nous de politiques claires concernant l’utilisation acceptable de l’IA, la supervision de l’adoption de nouveaux outils et les moyens techniques pour appliquer ces politiques ? Enfin, posez des questions sur les risques : pouvons-nous surveiller les activités liées à l’IA dans le cadre d’un audit de conformité et avons-nous évalué l’impact potentiel d’une violation de l’IA parallèle ?
Quelle est la première étape pour contrôler l’IA fantôme ?
La première étape pour contrôler l’IA fantôme consiste à la rendre visible grâce à la détection. C’est alors, et alors seulement, que vous pouvez appliquer efficacement vos politiques. Surveillez le trafic réseau lié à l’IA et mettez en place des activités d’inventaire de l’IA fantôme afin d’évaluer les outils d’IA utilisés par les employés. Évaluez les enregistrements d’authentification pour « Se connecter avec Google » et les intégrations SSO avec des services que l’organisation ne reconnaît pas. L’inventaire de l’IA fantôme prend du temps, mais c’est une première étape cruciale.
Comment l’IA parallèle affecte-t-elle la conformité et la protection des données ?
L’utilisation non réglementée de l’IA parallèle rend la gouvernance traditionnelle des données très inefficace. Les employés qui insèrent des données sensibles dans des outils dont l’utilisation n’est pas approuvée créent une exposition inconnue au flux et à l’utilisation des données. Les données sont alors potentiellement non conformes aux politiques de conservation et de suppression prévues par le RGPD ou diverses normes industrielles. En outre, les risques de violation des données liées à l’IA au sein de l’UE sont très réglementés et passibles de sanctions pouvant atteindre 4 % du chiffre d’affaires mondial. Les organismes de santé sont également très réglementés en matière de risques de violation des données dans le cadre de la conformité HIPAA.
Comment Proofpoint peut vous aider
Proofpoint offre aux entreprises la visibilité et le contrôle nécessaires pour lutter efficacement contre l’IA fantôme. Les solutions Proofpoint vous aident à détecter l’IA autorisée et non autorisée dans votre environnement, en surveillant les flux de données afin de bloquer toute exfiltration potentielle. La plateforme établit une corrélation entre l’activité de l’IA et les signaux de menaces internes, ce qui permet de détecter les risques avant qu’ils ne se transforment en incidents graves. Découvrez comment Proofpoint permet de détecter, de contrôler et de protéger l’utilisation non autorisée de l’IA tout en favorisant l’innovation sécurisée dans votre entreprise. Contactez Proofpoint dès aujourd’hui.