Pour la première fois, Proofpoint publie le rapport Paysage des risques liés à la l'IA et aux humains, une étude mondiale qui s'intéresse à la façon dont l'IA impacte le paysage des menaces pour la sécurité de la collaboration.
Basé sur les réponses de plus de 1 400 professionnels de la sécurité dans 12 pays, ce premier rapport met en lumière quelque chose que le secteur ressent mais qu'il n'a pas pu quantifier pleinement jusqu'à présent : L'IA transforme la manière dont les entreprises collaborent, et la sécurité n'a pas suivi le rythme des risques qui l'accompagnent.
Voici un aperçu de ce que les données révèlent.
L'IA est en production. La sécurité est encore à la traîne.
La rapidité d'adoption de l'IA est frappante. 87 % des entreprises ont déjà déployé des assistants d'IA au-delà de la phase pilote, et 76 % déploient activement des agents autonomes. Mais seulement 48 % affirment que la sécurité a été intégrée à leur stratégie d'IA dès le départ. Les autres décrivent leur posture de sécurité comme étant à la traîne, incohérente ou réactive.
Les entreprises ne sous-investissent pas. Plus de 90 % disposent d'un financement pour la sécurité de l'IA. Le problème est que de nombreux contrôles existants ont été conçus pour un modèle de menace antérieur à l'IA. Le rapport explore à quoi ressemble cet écart en pratique et pourquoi le budget seul ne le comble pas.
Des contrôles sont déployés. La confiance n'est pas au rendez-vous.
La découverte la plus frappante est peut-être que 63 % des entreprises ont mis en place des contrôles de sécurité de l'IA, alors même que 52 % ne sont pas pleinement convaincues que ces contrôles détecteraient une IA compromise. Et parmi les entreprises qui déclarent avoir mis en place des contrôles, la moitié a tout de même connu un incident suspect ou confirmé lié à l'IA.
Le rapport examine pourquoi cet écart de confiance existe, des lacunes en matière de formation et de visibilité aux barrières opérationnelles qui empêchent les contrôles de fonctionner sur les canaux de collaboration.
Les menaces ne se cantonnent pas à un seul canal
Dans les entreprises ayant signalé un incident lié à l’IA, des menaces apparaissent sur tous les canaux de collaboration, pas seulement la messagerie électronique. 67 % des sondés signalent des activités de menaces dans les emails, mais 57 % en observent également dans les applications SaaS ou cloud, 53 % dans les assistants ou agents d'IA, et 49 % dans les outils de collaboration, les plates-formes sociales et le partage de fichiers.
Le rapport comprend un examen détaillé de la manière dont ces modèles au niveau des canaux diffèrent entre la population entière visée par l'étude et le sous-groupe ayant vécu des incidents, avec des résultats qui remettent en question les hypothèses sur l'endroit où les risques liés à l'IA sont concentrés.
Les investigations échouent lorsque les outils ne peuvent pas suivre le rythme
Environ un tiers des entreprises se disent tout à fait prêtes à enquêter sur un incident lié à l'IA ou à un agent. La raison est structurelle : 94 % des sondés affirment que la gestion de plusieurs outils de sécurité est a minima modérément difficile, et 41 % ne peuvent établir aucune corrélation entre les menaces sur l'ensemble des canaux.
Lorsque les menaces liées à l'IA se déplacent entre les canaux de collaborateurs à la vitesse des machines, les piles d'outils fragmentés ne peuvent pas retracer le déroulement des faits. Le rapport établit un lien entre cet écart en matière de préparation aux investigations et la tendance à la consolidation déjà amorcée, 53 % des entreprises prévoyant de migrer vers une plate-forme unifiée dans les 12 prochains mois.
Autres sujets abordés dans le rapport
Le rapport complet Paysage des risques liés à l'IA et aux humains 2026 va plus loin que ce que nous avons partagé ici. Au sommaire :
- Comparaisons régionales à l'échelle de 12 pays, avec une variation notable dans l'exposition aux menaces et la maturité de l'adoption de l'IA
- Études de cas d'incidents réels montrant comment les attaques liées à l'IA se déplacent entre les canaux de collaboration
- Threat intelligence de Proofpoint concernant l'abus de consentement OAuth, l'infrastructure de phishing générée par l'IA et l'injection d'invites observée en environnement réel
- Cadre pour comprendre pourquoi la sécurité de l'IA et la sécurité de la collaboration résolvent des problèmes différents, et pourquoi les entreprises ont besoin des deux
Lire le rapport complet
L'adoption de l'IA ne ralentit pas, et les défis de sécurité de la collaboration qu'elle crée s'accumulent. Le rapport Paysage des risques liés à l'IA et aux humains 2026 fournit aux responsables de la sécurité les données nécessaires pour évaluer la situation dans laquelle se trouve leur entreprise, identifier les lacunes les plus importantes et plaider en interne pour ce qui doit changer. Téléchargez le rapport complet.