Le rapport Paysage des risques liés à l’IA et aux humains 2026 s’intéresse à la façon dont l’IA aggrave les risques humains et révèle un fossé de confiance plus profond dans le monde du travail moderne. À mesure que les entreprises s’appuient sur l’IA pour agir en leur nom, qu’il s’agisse de leurs collaborateurs, de leurs clients ou de leurs partenaires, chaque interaction repose sur la confiance dans les données, l’identité et la communication. Le rapport montre comment les cybercriminels exploitent cette confiance, pourquoi les contrôles existants s’avèrent insuffisants et ce que les entreprises doivent faire pour sécuriser les workflows qui impliquent à la fois des personnes, des plates-formes, des fournisseurs et des systèmes d’IA.
Principales observations :
- 87 % des entreprises ont déployé des assistants d’IA au-delà de la phase pilote.
- 63 % ont mis en place des contrôles de sécurité de l’IA, mais 52 % ne leur font pas confiance pour détecter une compromission
- Seulement 33 % d’entre elles sont pleinement préparées à enquêter sur des incidents liés à l’IA.
- La sécurité accuse un retard par rapport à l’adoption : seulement 48 % des entreprises intègrent la sécurité dès le départ.
- 95 % d’entre elles estiment que la gestion de plusieurs outils de sécurité constitue un défi majeur.
Les entreprises doivent aller au-delà des outils fragmentés et adopter une approche unifiée de la sécurité de la collaboration qui protège les interactions de confiance entre les personnes, les comptes et les workflows pilotés par l’IA.
Téléchargez le rapport pour comprendre comment l’IA redéfinit les risques humains — et comment sécuriser la collaboration à la vitesse des machines.