Il report di Proofpoint rivela come 31% delle aziende italiane abbia subìto incidenti legati all’AI, nonostante l’implementazione di controlli di sicurezza specifici
Inoltre, il 61% delle imprese italiane non è completamente sicuro che i propri controlli di sicurezza per l’AI riuscirebbero a identificarne una compromessa
• L’82% ha già implementato assistenti AI oltre la fase pilota.
• Tutte (100%) affrontano difficoltà con la complessità multi-tool, poiché i rischi AI si estendono a email, cloud, collaborazione e sistemi di intelligenza artificiale.
Proofpoint, Inc., azienda leader nella cybersecurity e nella compliance, ha pubblicato il report “AI and Human Risk Landscape 2026”, che esamina il divario crescente tra la velocità con cui le aziende stanno rendendo operativa l’AI e il loro livello di preparazione per proteggere e analizzare i rischi che ne derivano. Lo studio globale, che ha coinvolto oltre 1.400 professionisti della sicurezza in 12 paesi, tra cui l’Italia, esamina come la rapida adozione dell’AI stia trasformando la collaborazione aziendale e mettendo in luce punti deboli strutturali nei controlli di sicurezza e nella risposta agli incidenti.
L’AI si sta diffondendo sempre più nelle aziende ed è ormai operativa nella maggior parte delle funzioni, con implementazioni che spaziano dall’assistenza clienti alla messaggistica interna, ai flussi di lavoro via email e alla collaborazione con terze parti. L’87% delle imprese a livello globale ha già implementato assistenti AI oltre la fase pilota, e il 76% sta attivamente testando in fase pilota o implementando agenti autonomi. Tuttavia, mentre stanno investendo in strumenti e controlli AI, molte non sono in grado di confermare che siano efficaci: il 52% non è pienamente fiducioso che i propri controlli di sicurezza AI rilevino un’intelligenza artificiale compromessa, e la metà di chi ha controlli in atto ha già subìto un incidente legato all’AI, confermato o sospetto.
Inoltre, la maggior parte delle aziende dichiara di non essere completamente preparata a investigare incidenti legati all’AI che si estendono su più sistemi e canali (solo un terzo afferma di esserlo).
“I risultati di quest’anno evidenziano un crescente divario tra adozione dell’AI e preparazione di sicurezza,” commenta Ryan Kalember, Chief Strategy Officer di Proofpoint. “Le aziende stanno estendendo l’utilizzo di assistenti AI e agenti autonomi nei principali flussi di lavoro, eppure molte non riescono a confermare l’efficacia dei propri controlli o ad analizzare a fondo incidenti che si propagano attraverso canali di collaborazione. Mentre l’AI si integra nel modo di operare, i responsabili della sicurezza devono ripensare come proteggere le interazioni affidabili tra persone, dati e sistemi di AI.”
I principali risultati italiani del report “AI and Human Risk Landscape 2026” di Proofpoint evidenziano che:
- L’implementazione dell’AI supera la preparazione di sicurezza. L’adozione dell’intelligenza artificiale è passata in produzione più velocemente di quanto siano maturati i framework di governance. Mentre l’82% delle aziende ha implementato assistenti AI oltre la fase pilota e l’83% sta sviluppando agenti autonomi, il 38% descrive ancora la sicurezza come in fase di recupero, incoerente o reattiva. Il 31% riferisce di aver subìto un incidente - sospetto o confermato - legato all’AI, indicando esposizione già presente negli ambienti operativi.
- I canali di collaborazione sono la principale superficie di attacco dell’AI. L’intelligenza artificiale sta ampliando la superficie di attacco, permettendo alle minacce di diffondersi a velocità macchina e avere impatto sui flussi di lavoro connessi. Sebbene l’email rimanga il vettore di minaccia più comune con il 58%, l’esposizione si estende ora a piattaforme di condivisione file (38%), applicazioni SaaS e cloud di terze parti (35%) e piattaforme social e di messaggistica (30%). Tra le aziende in Italia che hanno subìto un incidente legato all’AI, l’esposizione aumenta su ogni canale, inclusi il 71% nelle email e il 52% nelle piattaforme di condivisione file.
- La fiducia supera l’efficacia dei controlli. Sebbene molte aziende abbiano implementato controlli di sicurezza, manca loro la certezza della loro efficacia. Il 67% dichiara di avere una copertura di sicurezza AI in atto, eppure il 61% non è pienamente fiducioso che tali controlli ne rilevino una compromessa. Inoltre, il 31% delle aziende dotata di controlli ha comunque segnalato un incidente legato all’AI e persistono lacune nell’allineamento della governance tra i team (48%), nella visibilità delle attività di AI o degli agenti (39%) e nella formazione (31%).
- La preparazione alle indagini è in ritardo rispetto alla realtà degli incidenti. Quando si verificano incidenti legati all’AI, molte aziende faticano ad analizzarli efficacemente. Solo il 38% dichiara di essere pienamente preparato a indagare un incidente legato all’AI o agli agenti, e il 34% segnala difficoltà nel correlare le minacce tra i vari canali. Poiché l’attività legata all’AI si estende a email, piattaforme di collaborazione e sistemi cloud, la capacità di ricostruire gli eventi dipende dalla visibilità su tutti gli ambienti connessi, componente che molte aziende ancora non possiedono.
- La proliferazione di strumenti è una barriera strutturale. La frammentazione degli stack di sicurezza sta aggravando la sfida, limitando la visibilità e rallentando la risposta quando gli incidenti si spostano tra i sistemi a velocità macchina. Il 100% delle aziende afferma che gestire molteplici tool di sicurezza è almeno moderatamente impegnativo, e l’86% lo descrive come molto o estremamente difficile. Gli intervistati citano pressioni sui costi operativi (51%), difficoltà a correlare le minacce (34%) e sfide di integrazione (31%).
- L’architettura di sicurezza diventa una priorità strategica con la crescita dell’AI. Il 52% delle aziende sta attivamente perseguendo il consolidamento di fornitori e strumenti, e il 48% ritiene che una piattaforma unificata sia più efficace di soluzioni puntuali. Nei prossimi 12 mesi, il 60% prevede di ampliare le protezioni AI, il 46% intende estendere la copertura dei canali di collaborazione e il 33% si aspetta di migrare verso un approccio di piattaforma unificata.
“Sebbene l’AI abbia introdotto nuovi rischi, come il prompt engineering, il suo impatto maggiore è stato nell’amplificare rischi affrontati da sempre,” afferma Kalember. “Esecuzione di codice non affidabile, gestione impropria di dati sensibili e perdita di controllo delle credenziali sono le stesse sfide create dalle persone da decenni, l’AI le amplifica, eseguendole con velocità e portata di macchina. Quando le aziende affidano all’AI le chiavi per agire per loro conto - con clienti, partner e sistemi interni - il raggio d’azione dell’impatto di ciascuno di questi errori aumenta drasticamente. La risposta non è trattare l’AI come una nuova categoria di minacce, ma applicare controlli rigorosi e collaudati a ciò che l’AI tocca ed esegue e ai metodi di autenticazione concessi. Le aziende che impostano correttamente queste basi fin dall’inizio scaleranno l’AI con fiducia, chi non lo farà sta solo automatizzando la propria esposizione.”
Il report completo “AI and Human Risk Landscape 2026” è disponibile qui https://www.proofpoint.com/us/resources/threat-reports/ai-human-risk-landscape-report
Metodologia
Il report AI and Human Risk Landscape 2026 fornisce una visione globale di come le aziende stiano adottando l’AI e gestendo i rischi per la sicurezza che ne derivano. La ricerca esamina la maturità dell’implementazione dell’AI, l’efficacia dei controlli, l’esperienza con gli incidenti, l’esposizione dei canali di collaborazione e la preparazione alle indagini, man mano che gli assistenti AI e gli agenti autonomi si integrano nei flussi di lavoro aziendali. A gennaio 2026, sono stati intervistati oltre 1.400 professionisti della sicurezza provenienti da aziende di diverse dimensioni e venti settori, provenienti da 12 paesi, inclusi Stati Uniti, Regno Unito, Francia, Germania, Italia, Spagna, Emirati Arabi Uniti, Australia, Giappone, Singapore, India e Brasile.
Proofpoint
Proofpoint, Inc. è leader mondiale nella cybersecurity incentrata su persone e agenti, che protegge il modo in cui individui, dati e agenti di intelligenza artificiale si connettono tramite email, cloud e strumenti di collaborazione. Proofpoint è un partner affidabile di oltre 80 aziende Fortune 100, oltre 10.000 grandi imprese e milioni di organizzazioni più piccole per bloccare le minacce, prevenire la perdita di dati e rafforzare la resilienza nei flussi di lavoro basati su persone e intelligenza artificiale. La piattaforma di collaborazione e sicurezza dei dati di Proofpoint aiuta organizzazioni di tutte le dimensioni a proteggere e abilitare i propri dipendenti, adottando al contempo l’intelligenza artificiale in modo sicuro e affidabile. Per ulteriori informazioni www.proofpoint.com.
Collegati con Proofpoint su LinkedIn.