Une étude Proofpoint révèle que deux organisations françaises sur cinq (41%) ont subi des incidents liés à l'IA malgré la mise en place de contrôles de sécurité

press-release-banner-820x348

Une nouvelle étude révèle que 78 % des organisations françaises ne sont pas totalement convaincues que leurs contrôles de sécurité de l'IA permettraient de détecter une IA compromise

  • 74 % des organisations françaises ont déployé des assistants IA au-delà de la phase pilote.
  • 91 % rencontrent des difficultés liées à la complexité de multiples outils alors que les risques liés à l'IA s'étendent à la messagerie, au cloud, aux outils de collaboration et aux systèmes IA.

Proofpoint, Inc., acteur majeur de la cybersécurité et de la conformité, publie aujourd'hui son rapport 2026 AI and Human Risk Landscape, qui explore l'écart croissant entre la vitesse à laquelle les organisations opérationnalisent l'IA et leur niveau de préparation pour sécuriser son utilisation. Cette étude mondiale, qui a interrogé plus de 1 400 professionnels de la sécurité dans 12 pays, examine comment l'adoption rapide de l'IA transforme la collaboration en entreprise et expose les failles structurelles des contrôles de sécurité et de la réponse aux incidents.

L'IA s'infiltre de plus en plus dans les organisations et est désormais opérationnelle dans la plupart des fonctions, avec des déploiements couvrant le support client, la messagerie interne, la messagerie électronique et la collaboration avec des tiers. 74 % des organisations françaises ont déployé des assistants IA au-delà de la phase pilote, et 72 % pilotent ou déploient activement des agents autonomes. Pourtant, alors que les organisations investissent dans les outils et les contrôles IA, beaucoup ne peuvent pas confirmer que ces contrôles sont efficaces : 78 % ne sont pas totalement convaincues que leurs contrôles de sécurité de l'IA permettraient de détecter une IA compromise, et 41% de celles qui ont mis en place des contrôles ont déjà connu un incident lié à l'IA confirmé ou suspecté.

De plus, la plupart des organisations déclarent ne pas être totalement préparées à enquêter sur les incidents liés à l'IA qui s'étendent sur plusieurs systèmes et canaux : seulement un tiers d'entre elles affirment être pleinement préparées à enquêter sur ce type d'incident.

« Les résultats de cette enquête mettent en évidence un fossé croissant entre l'adoption de l'IA et la préparation en matière de sécurité », déclare Ryan Kalember, Chief Strategy Officer chez Proofpoint. « Les organisations déploient massivement des assistants IA et des agents autonomes dans leurs flux de travail essentiels, mais beaucoup ne peuvent ni confirmer l'efficacité de leurs contrôles, ni mener des enquêtes complètes sur les incidents qui se déplacent à travers les canaux de collaboration. Alors que l'IA s'intègre dans leur quotidien, les responsables de la sécurité doivent repenser la manière dont ils protègent les interactions de confiance entre les personnes, les données et les systèmes IA. »

Principaux résultats du rapport 2026 AI and Human Risk Landscape de Proofpoint :

  • Le déploiement de l'IA a dépassé la préparation en matière de sécurité. L'adoption de l'IA est passée en production plus rapidement que les cadres de gouvernance n'ont mûri. Alors que 74 % des organisations ont déployé des assistants au-delà de la phase pilote et que 72 % font progresser les agents autonomes, 50 % décrivent la sécurité comme étant en retard, incohérente ou réactive. 35 % déclarent avoir connu un incident lié à l'IA suspect ou confirmé, ce qui indique que l'exposition est déjà présente dans les environnements en production.
  • Les canaux de collaboration constituent la principale surface d'attaque de l'IA : L'IA élargit la surface d'attaque, permettant aux menaces de se propager à la vitesse des machines et d'impacter les flux de travail connectés. Alors que la messagerie électronique reste le vecteur de menace le plus courant à 72 %, l'exposition s'étend désormais aux applications SaaS et cloud tierces (51 %), aux plateformes de partage de fichiers (50 %) et aux plateformes sociales et de messagerie (50 %). Parmi les organisations en France ayant connu un incident lié à l'IA, l'exposition augmente sur tous les canaux, notamment 69 % pour la messagerie électronique et 60 % pour les applications SaaS et cloud tierces.
  • La confiance dépasse l'efficacité des contrôle : Bien que de nombreuses organisations disposent de contrôles de sécurité, elles manquent également d'assurance. 58 % des organisations déclarent disposer d'une couverture de sécurité IA, mais 78 % ne sont pas totalement convaincues que ces contrôles détecteraient une IA compromise. De plus, 41 % des organisations disposant de contrôles ont tout de même signalé un incident lié à l'IA. Des lacunes persistent en matière de formation (46 %), de visibilité sur l'activité de l'IA ou des agents (40 %), et d'absence de modèle de détection des agents compromis ou des assistants IA exploités (33 %).
  • La préparation aux enquêtes accuse un retard par rapport à la réalité des incidents : Lorsque des incidents liés à l'IA se produisent, de nombreuses organisations peinent à enquêter efficacement. Seulement 28 % des répondants affirment être pleinement préparés à enquêter sur un incident lié à l'IA ou aux agents, et 55 % signalent des difficultés à corréler les menaces entre les canaux. L'activité liée à l'IA s'étendant à la messagerie électronique, aux plateformes de collaboration et aux systèmes cloud, la capacité à reconstituer les événements dépend de la visibilité sur les environnements connectés, ce dont de nombreuses organisations ne disposent pas encore.
  • La prolifération d'outils constitue un obstacle structurel : La fragmentation des environnements de sécurité aggrave le défi, limitant la visibilité et ralentissant la réponse lorsque les incidents se déplacent entre les systèmes à la vitesse des machines. 91 % des organisations estiment que la gestion de multiples outils de sécurité représente un défi au moins modéré, et 36 % la décrivent comme très ou extrêmement difficile. Les répondants citent la difficulté à corréler les menaces (55 %), les pressions sur les coûts opérationnels (49 %) et les lacunes en matière de visibilité (38 %).
  • L'architecture de sécurité devient une priorité stratégique à mesure que l'IA se développe : 55 % des organisations recherchent activement une consolidation des fournisseurs et des outils, et 41 % estiment qu'une plateforme unifiée est plus efficace que des solutions ponctuelles. Au cours des 12 prochains mois, 61 % prévoient d'étendre les protections IA, 49 % ont l'intention d'élargir la couverture des canaux de collaboration et 39 % s'attendent à adopter une approche de plateforme unifiée.

« Bien que l'IA ait introduit de nouveaux risques, comme le prompt engineering, son impact le plus important a été d'amplifier les risques que nous avons toujours eus », explique Ryan Kalember. « Exécuter du code non fiable, mal gérer les données sensibles et perdre le contrôle des identifiants sont les mêmes défis que les humains créent depuis des décennies. L'IA les exécute à la vitesse et à l'échelle des machines. Lorsque les organisations donnent à l'IA les clés pour agir en leur nom, auprès des clients, des partenaires et des systèmes internes, le rayon d'action de chacune de ces défaillances augmente considérablement. La solution n'est pas de traiter l'IA comme une nouvelle catégorie de menace, mais d'appliquer des contrôles rigoureux et éprouvés à ce que l'IA touche, ce qu'elle exécute et ce qu'elle est autorisée à authentifier. Les organisations qui établissent correctement cette base dès le début déploieront l'IA en toute confiance. Celles qui ne le font pas ne font qu'automatiser leur propre exposition. »

Pour télécharger le rapport 2026 AI and Human Risk Landscape, rendez-vous sur : https://www.proofpoint.com/us/resources/threat-reports/ai-human-risk-landscape-report

Méthodologie

Le rapport 2026 AI and Human Risk Landscape offre une vue mondiale sur la manière dont les organisations adoptent l'IA et gèrent les risques de sécurité qui en découlent. Cette recherche examine la maturité du déploiement de l'IA, l'efficacité des contrôles, l'expérience des incidents, l'exposition des canaux de collaboration et la préparation aux enquêtes, alors que les assistants IA et les agents autonomes s'intègrent dans les flux de travail des entreprises. En janvier 2026, plus de 1 400 professionnels de la sécurité à temps plein issus d'organisations de tailles et de secteurs variés ont été interrogés. Les répondants représentaient 20 secteurs et 12 pays, dont les États-Unis, le Royaume-Uni, la France, l'Allemagne, l'Italie, l'Espagne, les Émirats arabes unis, l'Australie, le Japon, Singapour, l'Inde et le Brésil.

À propos de Proofpoint, Inc.

Proofpoint, Inc. est un leader mondial de la cybersécurité centré sur l’humain et l'IA agentique, pour sécuriser les interactions entre humain, données et agents IA sur les plateformes de messagerie et de collaboration. Plus de 80 entreprises du classement Fortune 100, et des millions de grandes et petites entreprises font confiance à Proofpoint pour stopper les menaces, prévenir la perte de données, et renforcer la résilience des personnes et des flux de travail IA. Proofpoint offre aux organisations la plateforme de collaboration et de sécurité des données dont elles ont besoin pour protéger et autonomiser leurs employés tout en adoptant l'IA de manière sécurisée et productive. Pour en savoir plus : http://www.proofpoint.com/fr.

Connectez-vous avec Proofpoint sur LinkedIn

Proofpoint est une marque déposée ou un nom commercial de Proofpoint, Inc. aux États-Unis et/ou dans d’autres pays. Toutes les autres marques mentionnées sont la propriété de leurs détenteurs respectifs.