Les grands modèles de langage (LLM), tels que ChatGPT, Claude et Gemini, transforment les différents secteurs en offrant des flux de travail plus rapides, des connaissances plus approfondies et des outils plus intelligents. Leurs capacités redéfinissent notre façon de travailler, de communiquer et d'innover.
Les LLM sont une forme avancée d'intelligence artificielle (IA) entraînée sur de vastes volumes de données textuelles afin d'apprendre les pratiques usuelles et cooccurrences entre les mots et les phrases. Cela leur permet de générer des textes remarquablement proches de l'usage humain et de répondre à un nombre croissant de cas d'utilisation. Mais leur adoption croissante s'accompagne de responsabilités. Les LLM sont désormais utilisés dans de nombreux domaines, du support client à la cybersécurité, ce qui en fait des cibles privilégiées pour les attaques et utilisations détournées. En cas d'incident, les conséquences peuvent être considérables. Un incident peut par exemple exposer des données sensibles, générer du contenu nuisible ou trompeur ou susciter une perte de confiance dans les systèmes d'IA.
Pour les entreprises, les risques sont encore plus grands. Une seule compromission de données ou utilisation à mauvais escient d'un LLM peut entraîner des fuites de données, une atteinte à la réputation de la marque ou des violations des réglementations en matière de confidentialité et de conformité, lesquelles engendrent toutes des coûts considérables.
Par ailleurs, il y a des angles morts. Les LLM peuvent donner des réponses complètement erronées avec la plus grande assurance. Leurs réponses peuvent refléter des préjugés existants, passer à côté de nuances culturelles ou influencer subtilement la façon dont les gens prennent leurs décisions. Plus nous nous appuyons sur eux, plus il est facile d'accepter leurs réponses sans les remettre en question. C'est pourquoi il est essentiel non seulement de créer des modèles plus intelligents, mais aussi de rester lucide sur ce qui peut leur échapper et sur ce que nous pouvons manquer à cause d'eux.
Dans cet article, nous examinons les défis uniques liés à l'utilisation des LLM. Nous évaluerons les risques qu'ils posent pour la sécurité, explorerons quelques exemples concrets d'utilisation non sécurisée et expliquerons comment vous pouvez protéger au mieux votre entreprise.
En quoi les LLM présentent-ils un défi unique en matière de sécurité ?
Les pratiques traditionnelles en matière de cybersécurité n'ont pas été conçues en tenant compte des LLM. Contrairement aux systèmes logiciels standard, les LLM ne produisent pas de résultats prévisibles fondés sur des règles. Ils génèrent un langage dynamique, souvent surprenant et qui présente parfois des risques. Cela ouvre une nouvelle catégorie de vulnérabilités auxquelles les entreprises doivent désormais faire face.
Les LLM peuvent révéler des données sensibles par inadvertance, se comporter de manière imprévisible en fonction des données d'entraînement ou faire l'objet de nouvelles formes de manipulation telles que l'injection d'invites. Comme ils ne « pensent » pas en termes humains, ils ne peuvent pas être corrigés ou audités de la même manière que les autres systèmes. Résultat ? Une technologie puissante qui évolue rapidement, mais qui est également plus difficile à gouverner.
Nous décrivons ci-dessous les principaux défis qui rendent la sécurité des LLM différente et plus complexe que celle des applications logicielles traditionnelles.
- Réponses dynamiques. Les LLM génèrent des réponses imprévisibles. Ils peuvent exposer des informations sensibles ou confidentielles lors des interactions utilisateur, ce qui complique le contrôle des informations partagées.
- Ingestion de gros volumes de données. Les LLM sont entraînés sur de vastes ensembles de données susceptibles de contenir des informations sensibles ou propriétaires. Lorsque les modèles sont personnalisés pour des entreprises spécifiques, il existe un risque que des données sensibles soient intégrées dans les modèles et soient divulguées lors de leur utilisation.
- Processus décisionnel opaque. Les LLM fonctionnent comme des « boîtes noires », si bien qu'il est difficile de comprendre la façon dont ils génèrent certains résultats. Ce manque de transparence peut compliquer la gestion des risques et entraver la détection des problèmes potentiels.
- Nouvelles surfaces d'attaque. Les LLM créent de nouvelles vulnérabilités au-delà des couches de sécurité traditionnelles du cloud ou des applications Web. Il peut notamment s'agir d'attaques par injection d'invites ou d'empoisonnement des données. Les modèles peuvent également faire fuiter des informations sensibles s'ils ne sont pas configurés correctement.
Ces facteurs font des LLM un défi unique. Les entreprises doivent implémenter des mesures de sécurité robustes pour garantir la protection des données et la conformité.
Risques de sécurité courants liés aux LLM à surveiller
Les LLM sont des outils puissants. Ils facilitent le service client, accélèrent le travail et aident à la prise de décision. Mais ils engendrent également de nouveaux risques de sécurité. En voici quelques-uns à garder en tête :
- Attaques par injection d'invites. Des invites habilement conçues peuvent manipuler les modèles pour les amener à divulguer des informations sensibles, contournant ainsi les mesures de sécurité traditionnelles.
- Fuites de données. Des modèles mal configurés peuvent exposer des données privées lors des interactions utilisateur.
- Attaques par inversion de modèle. Les cyberpirates pourraient être en mesure de deviner les données sur lesquelles un modèle a été entraîné. Cela peut exposer des données clients, des business plans ou d'autres contenus confidentiels.
- Intégrations tierces non sécurisées. De nombreux LLM se connectent à des outils externes tels que des API ou des plugins. Si ceux-ci ne sont pas sécurisés, ils peuvent laisser échapper des données ou être utilisés pour des attaques.
- Confiance excessive et résultats erronés ou trompeurs. Il arrive que les LLM inventent des choses. Si les utilisateurs font implicitement confiance aux résultats des modèles sans les vérifier, cela peut entraîner des erreurs ou des infractions aux règles.
- Attaques par déni de service via l'utilisation abusive de jetons. Les cybercriminels peuvent surcharger les modèles en utilisant des invites longues ou répétées. Cela peut ralentir ou faire planter les services d'IA.
- Phishing et ingénierie sociale à grande échelle. Les LLM peuvent générer des messages très convaincants qui imitent des communications légitimes. Cela permet aux cybercriminels de concevoir et de diffuser plus facilement des campagnes de phishing ou des attaques d'ingénierie sociale ciblées. Les risques de vol d'identifiants de connexion et de compromission de données s'en trouvent accrus.
- Utilisation d'outils d'IA non approuvés (Shadow AI) Les collaborateurs peuvent utiliser des outils d'IA publics sans autorisation. Ils peuvent saisir des données privées, exposant ainsi leur entreprise à des risques.
Pour utiliser les LLM en toute sécurité, les entreprises ont besoin de règles strictes et d'outils intelligents. Elles doivent surveiller la façon dont les modèles sont utilisés, former leur personnel à une utilisation sécurisée et bloquer les comportements à risque avant qu'ils ne causent des dommages.
Exemples concrets d'incidents de sécurité liés aux LLM
Les problèmes de sécurité liés aux LLM ne représentent pas uniquement une préoccupation future ; ils se posent déjà. Examinons quelques exemples :
Samsung : fuites de données via ChatGPT
En 2023, des ingénieurs Samsung ont utilisé ChatGPT pour les aider dans des tâches telles que le débogage de code et le résumé de notes. Ce faisant, ils ont saisi des données d'entreprise confidentielles, notamment du code source et des informations internes.
Dans la mesure où ChatGPT enregistre les requêtes des utilisateurs pour améliorer ses performances (à moins que les utilisateurs ne s'y opposent), des données confidentielles de Samsung pourraient avoir été absorbées dans le modèle. Cela a suscité de vives inquiétudes quant à la divulgation de secrets commerciaux ou d'éléments de propriété intellectuelle de l'entreprise. Après cet incident, Samsung a restreint l'utilisation de ChatGPT et a commencé à développer ses propres outils d'IA à usage interne.
Pourquoi est-ce important ?
L'exemple de Samsung ne résulte pas d'actions malveillantes, mais de simples tentatives ordinaires d'accélérer le travail. Cependant, en l'absence de limites claires et d'une compréhension suffisante de la façon dont les LLM traitent les données, même les interactions quotidiennes peuvent exposer des données extrêmement sensibles.
IA DeepSeek : problèmes de confidentialité
DeepSeek est une start-up chinoise spécialisée dans l'IA qui a développé DeepSeek-R1, un modèle de langage puissant et abordable comparable à ChatGPT. DeepSeek-R1 est utilisé pour des tâches telles que la rédaction, le codage et l'analyse de données, rendant ainsi l'IA avancée plus accessible aux entreprises et aux développeurs. Grâce à sa conception efficace, il utilise moins de ressources informatiques, ce qui permet de réduire les coûts.
Toutefois, son essor rapide a suscité des inquiétudes quant à la confidentialité et à la sécurité des données. Selon sa politique de confidentialité, DeepSeek stocke les données utilisateurs sur des serveurs situés en Chine, où le gouvernement peut potentiellement y avoir accès. Ce risque a incité les entreprises soucieuses de leurs informations sensibles et de la conformité réglementaire à faire preuve de prudence.
Concessionnaire Chevrolet : un chatbot d'IA propose une voiture de 76 000 dollars pour 1 dollar
Le chatbot d'IA d'un concessionnaire Chevrolet a fait les gros titres après avoir proposé par erreur un SUV d'une valeur de 76 000 dollars pour seulement 1 dollar. Un utilisateur qui discutait avec le bot a demandé une réduction gigantesque et l'IA a accepté. Il est allé jusqu'à dire : « Marché conclu ». Le chatbot ne disposait pas de garde-fou pour détecter l'erreur et a donc réagi comme si l'offre était réelle.

Capture d'écran d'une conversation avec le chatbot Chevrolet
Bien que le concessionnaire n'ait pas honoré la réduction, l'incident s'est rapidement répandu en ligne et a soulevé de sérieuses questions sur l'utilisation de l'IA dans le cadre du service client. Il a montré à quel point les LLM sont facilement manipulables et pourquoi les entreprises doivent fixer des limites claires quant à ce que les bots peuvent et ne peuvent pas dire.
Bonnes pratiques en matière de sécurisation des LLM
Pour intégrer les LLM en toute sécurité dans vos flux de travail, nous vous recommandons d'adopter les pratiques de sécurité fondamentales suivantes :
- Appliquez des contrôles d'accès. Utilisez des autorisations basées sur les rôles. Limitez l'accès aux ensembles de données sensibles aux personnes qui en ont vraiment besoin.
- Filtrez les invites et les réponses. Surveillez les contenus sensibles ou nuisibles afin d'éviter les fuites de données et les utilisations abusives. Analysez les réponses des modèles pour vous assurer qu'aucune donnée sensible n'est divulguée. Cette étape est particulièrement importante après les mises à jour ou les cycles de réentraînement.
- Assurez-vous de minimiser les données. Limitez les données fournies aux LLM à ce qui est strictement nécessaire pour accomplir la tâche qui leur est confiée.
- Introduisez des garde-fous. Adaptez les LLM aux besoins de votre entreprise à l'aide de contraintes de sécurité personnalisées.
- Organisez régulièrement des audits de sécurité et des tests d'intrusion. Mettez en place un programme d'audits et de tests de pénétration réguliers qui tienne explicitement compte des comportements des LLM et des risques connexes.
- Sensibilisez les utilisateurs. Sensibilisez vos collaborateurs à une utilisation sûre et responsable des LLM par le biais de directives claires et d'une formation continue.
- Surveillez les outils d'IA non approuvés (Shadow AI). Implémentez des contrôles afin d'identifier et de bloquer l'utilisation de LLM non approuvés au sein de l'entreprise.
Solutions et outils permettant de renforcer la sécurité des LLM
Sécuriser l'utilisation des LLM est essentiel. À cette fin, les entreprises doivent envisager une approche multicouche, reposant sur des outils spécialisés et des pratiques pour protéger à la fois les modèles et les données que ceux-ci traitent. Voici quelques exemples de solutions essentielles :
- Plates-formes de surveillance des invites. Ces outils permettent de détecter et de signaler les comportements d'invites inhabituels ou malveillants susceptibles d'indiquer des attaques par injection d'invites ou une utilisation inappropriée. Grâce à l'analyse continue des invites et des réponses, ils peuvent identifier les signes avant-coureurs de menaces potentielles. Les entreprises peuvent définir des règles afin de détecter, voire bloquer, différentes invites en fonction de cette catégorisation. Cela permet de s'assurer que le contenu généré par l'IA coïncide avec les objectifs de l'entreprise, réduisant ainsi les risques de compromission de sécurité.
- Sécurité des données pour les LLM. Les stratégies de prévention des fuites de données traditionnelles doivent évoluer pour répondre aux défis uniques des environnements d'IA. Les outils modernes de sécurité des données doivent intégrer des fonctionnalités adaptatives et des mécanismes de réponse intelligents adaptés aux LLM.
- Passerelles de sécurité pour l'IA. Ces passerelles, qui font office de point de contrôle entre les utilisateurs et les LLM, gèrent et filtrent le trafic. Elles appliquent des règles de sécurité, authentifient les utilisateurs et bloquent les accès à risque ou non autorisés aux services d'IA.
- Architecture Zero Trust pour les systèmes d'IA. L'application des principes Zero Trust aux LLM implique de ne pas accorder de confiance implicite. Chaque demande d'accès ou d'interaction avec le modèle doit être vérifiée et évaluée en continu. Cette approche est essentielle lorsque les LLM traitent des tâches ou des données sensibles.
- API de LLM sécurisées. Lorsque vous intégrez des LLM dans des applications, il est essentiel d'adopter des pratiques de développement sécurisées. Il convient notamment d'assurer une authentification appropriée, la validation des entrées, la limitation du débit et la gestion de la passerelle API afin de réduire les surfaces d'attaque et d'empêcher toute exploitation.
En combinant ces pratiques et outils de sécurité des LLM, les entreprises peuvent créer un environnement d'IA plus résilient et sécurisé répondant aux normes modernes de gestion des risques.
L'avenir en perspective : intégrer la sécurité des LLM dans votre stratégie d'IA
Les LLM occupent une place de plus en plus importante dans le fonctionnement des entreprises et cette tendance ne montre aucun signe de ralentissement. Face à la multiplication des LLM, la sécurité doit tenir la distance et évoluer au même rythme qu'eux. Les entreprises qui commencent à développer des programmes robustes de sécurité de l'IA dès maintenant seront mieux préparées à gérer les règles de conformité qui ne manqueront pas d'être imposées. Ce faisant, elles gagneront la confiance des clients tout en restant ouvertes aux nouvelles idées et à l'innovation.
Nous constatons également que les LLM sont de plus en plus spécialisés et conçus pour des secteurs spécifiques, tels que les secteurs juridique, de la santé et de la finance. De plus, à mesure que les LLM seront intégrés dans les outils du quotidien tels que Google Workspace et Microsoft 365, ils deviendront un composant naturel de nos modes de travail. Cependant, cette commodité s'accompagne de nouveaux risques, d'où l'importance de faire de la sécurité une priorité.
En fin de compte, la sécurisation de vos LLM relève simplement du bon sens. Car ce n'est pas seulement votre technologie qui pourrait être mise en péril, c'est toute votre entreprise.
Comment Proofpoint peut vous aider
Proofpoint est idéalement positionné pour aider les entreprises à faire face à l'évolution constante du paysage des cybermenaces. Tirant parti des capacités avancées des LLM, Proofpoint Data Security Posture Management et les solutions de prévention des fuites de données de Proofpoint protègent les informations sensibles en bloquant leur téléchargement, leur collage ou leur saisie dans des outils tels que ChatGPT. Grâce à des contrôles d'autorisation automatiques, nos solutions limitent également l'accès aux fichiers partagés par les instances Copilot de l'entreprise.
En outre, Proofpoint suit et gère les flux de données d'IA dans les différents environnements cloud. Il applique les règles d'accès aux données et assure une classification et une gestion des risques cohérentes pour les LLM.
Grâce à la sécurité optimisée par l'IA de Proofpoint, votre entreprise peut intensifier l'adoption des LLM en toute confiance tout en conservant des défenses robustes. Pour en savoir plus, consultez notre site à l'adresse Proofpoint.com ou contactez-nous.