Indice
Mentre lo Shadow IT riguarda l’archiviazione personale su cloud e le applicazioni di messaggistica non approvate, la Shadow AI aggira il controllo diretto utilizzando modelli di intelligenza artificiale esterni per analizzare dati aziendali sensibili e produrre risultati altamente imprevedibili e potenzialmente dannosi.
Un rapporto del 2025 di Menlo Security, che ha monitorato centinaia di migliaia di input degli utenti nell’arco di un mese, ha evidenziato i rischi dell’uso non regolamentato dell’IA da parte dei dipendenti. È emerso che il 68% dei dipendenti utilizzava account personali per accedere a strumenti di AI gratuiti come ChatGPT, con il 57% di essi che utilizzava dati sensibili. Ha anche mostrato come i sistemi di AI si adattano agli input degli utenti e divulgano al pubblico dati sensibili dell’organizzazione.
L’uso della Shadow AI è stato amplificato dall’ascesa della tecnologia AI generativa nel mainstream alla fine del 2022. La tecnologia è altamente accessibile: la maggior parte degli strumenti è basata su browser e abilitata al cloud. I dipendenti utilizzano quotidianamente anche prodotti SaaS integrati con l’IA. La pressione sui dipendenti per produrre risultati rapidamente è in continuo aumento.
Quando l’adozione ufficiale dell’IA è rallentata da processi di approvazione troppo lenti, i dipendenti cercano soluzioni in autonomia. Il divario tra le loro esigenze e ciò che l’IT mette a disposizione resta ampio.
La Formazione sulla Cybersecurity Inizia Qui
Ecco come funziona la tua prova gratuita:
- Parla con i nostri esperti di sicurezza informatica per valutare il tuo ambiente e identificare la tua esposizione al rischio di minacce
- Entro 24 ore e con un minimo di configurazione, implementeremo i nostri strumenti per 30 giorni
- Prova la nostra tecnologia in prima persona!
- Ricevi un rapporto che delinea le tue vulnerabilità di sicurezza per aiutarti a prendere subito provvedimenti adeguati contro gli attacchi alla tua sicurezza informatica
Compila questo modulo per richiedere un incontro con i nostri esperti di sicurezza informatica.
Grazie per esserti registrato per la nostra prova gratuita. Un rappresentante di Proofpoint si metterà in contatto con te a breve, guidandoti nei prossimi passi da seguire.
Perché la Shadow AI è importante nel 2025?
La Shadow AI crea punti ciechi che nemmeno i sistemi di sicurezza più sofisticati sono in grado di risolvere. I CISO hanno una superficie di attacco crescente, non monitorata e non protetta. Secondo IBM, una violazione su cinque nelle organizzazioni è attribuibile alla Shadow AI e quelle con una maggiore prevalenza di violazioni della Shadow AI hanno costi mediamente superiori di 670.000 dollari rispetto a quelle con livelli inferiori o senza Shadow AI.
Quando gli ingegneri non completano la documentazione richiesta sul flusso di lavoro dell’AI, perdono la capacità di controllare le vulnerabilità del sistema. Nel frattempo, l’uso di sistemi di produzione non testati e non convalidati guadagna terreno. Le lacune di conformità diventano più problematiche per i team responsabili delle politiche, poiché i dipendenti ignorano i quadri di governance esistenti. L’esplosione dell’AI generativa e gli investimenti nell’agentic AI alimentano questa sfida.
Secondo il rapporto di Menlo Security, i siti web dedicati all’AI hanno registrato un aumento del 50% del traffico web da febbraio 2024 a gennaio 2025, per un totale di 10,53 miliardi di visite mensili. La cultura del “bring your own AI” è in pieno boom, con oltre il 60% degli utenti che si affida a strumenti di AI personali e non gestiti, piuttosto che a strumenti approvati dall’azienda. Patrick Pushor, Senior Solutions Architect di Acuvity, ha recentemente pubblicato: “Quasi la metà delle organizzazioni si aspetta un incidente legato alla Shadow AI nei prossimi 12 mesi”, un dato lampante dell’ultimo rapporto 2025 State of AI Security Report dell’azienda. Tuttavia, il divario tra la supervisione aziendale e l’adozione reale dell’AI da parte dei dipendenti non è mai stato così ampio.
Caratteristiche chiave e cause della Shadow AI
La Shadow AI è evidente nei modelli linguistici di grandi dimensioni (LLM) pubblici come ChatGPT e Claude, ma può anche nascondersi in bella vista. Le funzionalità di AI integrate negli strumenti SaaS autorizzati possono anche attivarsi senza che l’IT se ne accorga. Ad esempio, i team di marketing utilizzano assistenti AI per il copywriting per comporre intere campagne. I rappresentanti di vendita utilizzano strumenti di AI per automatizzare le e-mail di risposta ai clienti. Gli analisti finanziari copiano i dati nei chatbot per creare sintesi. Questo fenomeno è diffuso e riguarda tutti i reparti e tutti i ruoli, non solo i team tecnici.
Le cause possono essere ricondotte alla pressione e all’accesso. I dipendenti sono sotto pressione per produrre risultati migliori in meno tempo, con risorse limitate. Quando i processi interni per l’approvazione dell’AI procedono a rilento o non forniscono alcuna risposta, le persone trovano i propri mezzi. La maggior parte degli strumenti di AI generativa è di facile accesso: tutto ciò che serve è un’e-mail e un browser web.
Inoltre, molte organizzazioni non dispongono di politiche chiare sugli strumenti di AI, in particolare su ciò che è consentito, ciò che è vietato e ciò che richiede approvazione. Secondo una ricerca di S&P Global, “poco più di un terzo (36%) dispone di una politica dedicata all’AI o di una politica sull’AI integrata in altre politiche di governance”. Il divario tra ciò di cui i dipendenti hanno bisogno e ciò che il sistema di governance fornisce è un abisso sempre più ampio.
Rischi legati alla Shadow AI
La Shadow AI crea una minaccia unica e complessa che coinvolge tutti i pilastri della sicurezza aziendale. Questi rischi includono problemi immediati come la violazione dei dati e l’esposizione, nonché problemi di lunga durata relativi alla conformità e all’operatività.
Fuga ed esposizione dei dati
I dipendenti copiano e incollano dati sensibili e proprietari in strumenti di AI non approvati, esponendo tali dati e causando una violazione della sicurezza. È stato osservato che il 77% dei dipendenti condivide informazioni sensibili e proprietarie con strumenti come ChatGPT. Quando si verificano incidenti di violazione che coinvolgono la Shadow AI, i risultati di IBM hanno rivelato che nel 65% dei casi sono coinvolte informazioni di identificazione personale compromesse e nel 40% dei casi sono coinvolte proprietà intellettuali esposte.
Violazioni della conformità e delle normative
L’uso non regolamentato dell’AI crea lacune nella governance dei dati, che possono mettere a rischio un’entità in termini di conformità alle leggi sulla privacy dei dati, come il GDPR, nonché agli standard di settore. La maggior parte delle organizzazioni non controlla il flusso di dati sensibili e gli strumenti utilizzati dai dipendenti. Questo punto cieco rende quasi impossibile dimostrare la conformità con un audit, nonché rispondere alle richieste degli interessati.
Affidabilità dei dati a supporto delle decisioni
Gli strumenti di AI non regolamentati forniscono dati illimitati, distorti, falsi o inventati, che i dipendenti utilizzano poi nel loro processo decisionale. Gli errori nei dati possono compromettere le operazioni fondamentali a livello aziendale. I flussi non regolamentati creano una situazione in cui dati difettosi ed errati possono circolare tra le operazioni e non emergere per molto tempo.
Costi e rischi operativi
Come accennato in precedenza, gli incidenti legati alla Shadow AI aumentano il costo di una data breach di 670.000 dollari. Le organizzazioni ospitano inconsapevolmente una media di 1.200 applicazioni non ufficiali che creano doppioni di spesa, flussi di lavoro frammentati e una superficie di attacco ampliata. Le lacune di governance e controllo, o “aree ombra”, diventano più grandi e più complesse da gestire nel tempo.
Rischi per la sicurezza e il controllo degli accessi
L’identità non monitorata e l’accesso alla Shadow AI comportano vulnerabilità alle minacce alla sicurezza. Un’organizzazione media ha 15.000 utenti fantasma e, per loro natura, queste credenziali non necessarie e inattive rappresentano una minaccia quando vi accedono strumenti non autorizzati. I dipendenti che condividono le password con gli assistenti AI creano backdoor e il tempo medio per porvi rimedio è di 94 giorni.
Framework e best practice per la gestione della Shadow AI
Oltre alla semplice rilevazione della Shadow AI, la sua gestione richiede un approccio ben pianificato e allineato che bilanci sicurezza e produttività. Le strategie migliori offrono visibilità sull’uso dell’AI, stabiliscono framework di governance definibili, forniscono gli strumenti giusti e sviluppano politiche attuabili. La chiave del successo è trattare la governance dell’AI come un processo continuo, piuttosto che come un progetto una tantum.
Individuazione e inventario degli strumenti di AI in uso. Non è possibile governare ciò che non si vede. Utilizza il monitoraggio della rete, i gateway web sicuri e gli strumenti CASB per individuare i domini di AI e interrogare la tua rete. Chiedi ai team quali strumenti utilizzano e a quali dati accedono. Crea un inventario dinamico che abbini ogni strumento alle unità aziendali, agli elementi di dati e ai casi d’uso specifici.
Valutazione e prioritizzazione dei rischi. Non tutte le Shadow AI presentano lo stesso rischio. Classifica gli strumenti che hai mappato come inaccettabili, ad alto rischio, a rischio moderato o a basso rischio, tenendo conto della sensibilità dei dati, dell’esposizione normativa e dell’impatto sul business. Una mappa di rischio mostrerà quali casi rientrano nella zona di pericolo e meritano un’attenzione immediata, consentendoti di indirizzare i tuoi sforzi prima verso le minacce più critiche.
Sviluppo e applicazione delle politiche. Definisci gli strumenti di AI approvati, le procedure per richiedere nuovi strumenti e le linee guida per la gestione dei dati sensibili. Implementa misure di protezione tecniche dove viene svolto il lavoro effettivo. Controlla l’accesso e nega gli strumenti arbitrari utilizzando liste di proxy consentiti e negati. Utilizza strumenti di prevenzione della perdita di dati per impedire il caricamento di dati su strumenti non approvati e fornisci alternative di routing sicure ai modelli approvati. Le politiche dovrebbero promuovere l’innovazione.
Formazione e cambiamento culturale. La Shadow AI è spesso innocua ignoranza. Proteggi la tua azienda con una formazione specifica per ruolo utilizzando scenari reali legati al lavoro. Incoraggia i team a condividere gli strumenti di AI che utilizzano e consenti loro di farlo senza timore di ritorsioni. Quando i leader dimostrano costantemente la cultura desiderata, la conformità alle politiche è quasi garantita.
Integrazione della sicurezza informatica. La governance dell’AI dovrebbe interfacciarsi con i tuoi programmi esistenti di protezione dei dati, controllo degli accessi e rischi interni. Assegna la responsabilità interfunzionale che abbraccia i settori IT, sicurezza, legale, finanziario e risorse umane. Il monitoraggio in tempo reale dell’utilizzo dell’AI e i trasferimenti di grandi quantità di dati agli strumenti di AI dovrebbero essere segnalati come anomali. Gli audit di routine mettono in evidenza modelli di utilizzo che aiutano a perfezionare la governance e a rivelare le lacune nelle tue offerte autorizzate.
Chi dovrebbe essere responsabile della governance della Shadow AI?
Nessun singolo team può essere responsabile della governance della Shadow AI. I rischi superano i confini della sicurezza, della conformità, dell’infrastruttura e delle operazioni aziendali. Le organizzazioni di successo assegnano tali responsabilità frammentate e promuovono la collaborazione tra i reparti.
La supervisione dei rischi spetta ai team di sicurezza e ai CISO. Essi individuano le potenziali minacce, valutano il livello di esposizione e identificano quali utilizzi dell’AI creano vulnerabilità inaccettabili. Devono supervisionare l’uso dell’AI non autorizzata e verificare gli equilibri con altri collaboratori per quanto riguarda le esigenze aziendali e la sicurezza degli incidenti. La governance è facilitata al meglio quando i responsabili della sicurezza sono canali di alto livello, non ostacoli.
L’architettura e l’implementazione tecnica sono di responsabilità dei team IT e di ingegneria. Essi verificano la presenza di falle di sicurezza negli strumenti di AI e creano strumenti di AI sicuri che i dipendenti trovano utili e adottano volentieri. Sono responsabili dei registri di AI, dei marketplace e dell’applicazione delle policy aziendali sull’AI e dell’accesso a livello di rete e di applicazione. Nel frattempo, i team CISO garantiscono che la governance dell’AI mantenga l’allineamento con il GDPR, gli standard di settore e gli obblighi contrattuali. Valutano le pratiche di trattamento dei dati, supervisionano gli accordi con i fornitori e facilitano gli audit dell’organizzazione.
I team di conformità e legali traducono i requisiti di conformità normativa in politiche pratiche e attuabili. Quando i dipendenti comprendono il motivo per cui sono in vigore determinate politiche, insieme a strumenti autorizzati di alta qualità, la conformità alle politiche diventa automatica, non coercitiva. I leader dovrebbero dare l’esempio utilizzando essi stessi gli strumenti appropriati.
Per sostenere questa cultura della conformità guidata dalla leadership, è fondamentale una governance strutturata che integri canali di feedback interfunzionali tra i diversi reparti. Le organizzazioni dovrebbero riunirsi regolarmente per aggiornare le politiche, valutare i nuovi strumenti e affrontare i rischi emersi. La governance collaborativa mantiene i team concentrati su ciò che conta di più, prevenendo sia le lacune di sicurezza che le inutili lungaggini burocratiche.
Sfide nell’implementazione della governance della Shadow AI
Anche le organizzazioni che investono con determinazione nella governance dell’AI incontrano ostacoli significativi. I cicli delle politiche richiedono troppo tempo per essere implementati, data la rapidità con cui cambia il panorama. La maggior parte dei controlli IT è troppo basilare per affrontare i rischi specifici dell’AI.
- Rapida evoluzione degli strumenti di AI. Le capacità dell’AI sono così avanzate che ogni settimana compaiono nuovi strumenti e le piattaforme esistenti aggiungono funzionalità di AI senza preavviso. Prima che il team di sicurezza completi la valutazione di uno strumento, i dipendenti hanno già accesso a tre alternative non controllate, senza alcun incentivo a rinunciarvi.
- Inosservanza delle politiche. I dipendenti considerano la governance un ostacolo e la abbandonano quando i processi di approvazione richiedono settimane, mentre gli strumenti di AI gratuiti sono immediatamente accessibili. Quando gli strumenti forniti ufficialmente non hanno le capacità e la praticità offerte dagli strumenti consumer, l’adozione ombra diventa inevitabile.
- Difficoltà nel monitorare quali strumenti vengono utilizzati. L’AI funziona in modo diverso dal tradizionale SaaS. L’AI può essere integrata in piattaforme approvate oppure può operare localmente senza alcuna firma di rete. La maggior parte delle organizzazioni non dispone dei mezzi tecnici per tracciare le attività dell’AI, lasciando i team di sicurezza alla cieca.
- La necessità di politiche più specifiche per l’AI. La maggior parte delle organizzazioni non dispone di politiche che affrontano i rischi specifici dell’AI, come i risultati dei modelli, il prompt injection o l’addestramento dei dati. Le politiche IT generali non riescono a cogliere le particolari preoccupazioni di conformità ed etica che l’AI introduce. Se le politiche sono troppo restrittive, si verificherà l’adozione ombra, mentre se sono troppo permissive, l’organizzazione rischia di essere esposta.
Strumenti di rilevamento della Shadow AI
Per rilevare la Shadow AI, è importante disporre di un modello a più livelli che includa gli strumenti per analizzare il traffico di rete, le applicazioni, le attività degli utenti e il movimento dei dati. Non esiste un unico metodo in grado di rilevare tutto. Gli strumenti di maggior successo utilizzano varie tecniche per costruire una comprensione completa di come e dove gli strumenti di AI emergono e vengono utilizzati dai dipendenti.
Piattaforme di rilevamento dell’uso dell’AI
Questi strumenti sono specializzati nel mantenere inventari delle applicazioni di AI utilizzate dai dipendenti e scoprono gli ambienti aziendali in cui questi strumenti si sono diffusi in modo incontrollato. Utilizzando l’apprendimento automatico, questi strumenti rilevano servizi di AI consolidati come ChatGPT, Gemini e Claude, nonché quelli di nuova concezione che altri strumenti di rilevamento tradizionali non riescono a individuare. Queste piattaforme analizzano transazioni finanziarie, utilizzo del browser e traffico di rete per mappare la portata dell’uso dell’AI.
Cloud Access Security Broker (CASB)
I CASB migliorano il monitoraggio tradizionale delle applicazioni SaaS aggiungendo funzionalità di governance dell’AI. Le soluzioni CASB offrono una supervisione in tempo reale dell’utilizzo dei servizi di AI da parte dei dipendenti e possono applicare politiche contestuali dipendenti dall’AI. Le ultime soluzioni CASB forniscono una valutazione dei rischi basata sull’AI dei dati gestiti e del traffico AI in entrata e in uscita dall’azienda attraverso un’ispezione approfondita dei pacchetti.
Sistemi di prevenzione della perdita di dati (DLP)
Gli strumenti DLP con AI integrata riconoscono automaticamente quando i dipendenti condividono informazioni sensibili con strumenti di AI non autorizzati. Eseguono la scansione dei contenuti a livello di prompt per gli input digitati, i caricamenti di file e gli incollaggi dagli appunti per rilevare la condivisione di documenti e verificare la presenza dei principali chatbot, tra cui ChatGPT, Copilot, Claude, Gemini e Perplexity. Le soluzioni DLP avanzate dispongono di un servizio sensibile al contesto che riduce ulteriormente i falsi positivi e spiega le ragioni alla base del movimento dei dati.
Monitoraggio della gestione delle identità e degli accessi (IAM)
I sistemi IAM sorvegliano la condivisione delle credenziali e i modelli di utilizzo per verificare come i dipendenti si autenticano ai servizi di AI e tracciare la condivisione di documenti con questi strumenti. L’IAM proattivo controlla anche la condivisione dei file, gestisce i permessi di accesso e segnala gli account inattivi. I sistemi SIEM integrano la gestione delle identità con l’analisi predittiva dell’uso dell’AI. Offrono alert in tempo reale basati su soglie dinamiche, segnalando esportazioni anomale di documenti e potenziali data leak.
Piattaforme di analisi comportamentale
Questi sistemi utilizzano il machine learning per stabilire linee guida per un utilizzo normale dell’AI e identificare anomalie che indicano potenziali violazioni delle politiche. Assegnano punteggi di rischio comportamentale agli utenti in base ai loro modelli di interazione con l’AI e possono prevedere quali dipendenti sono più propensi a utilizzare in modo improprio gli strumenti AI con dati sensibili. Le piattaforme avanzate creano profili comportamentali per comprendere non solo cosa fanno gli utenti con l’AI, ma anche le motivazioni alla base. L’analisi comportamentale diventa più accurata nel tempo, poiché apprende continuamente da nuovi modelli.
Strumenti di analisi del traffico di rete
Anche quando le applicazioni crittografano le loro comunicazioni, le soluzioni di monitoraggio della rete possono comunque identificare l’utilizzo dell’AI riconoscendo i modelli nel traffico. Gli strumenti individuano le impronte digitali delle applicazioni di AI, monitorano l’utilizzo della larghezza di banda e rilevano volumi anomali di trasferimenti di dati che suggeriscono un uso improprio degli strumenti per esfiltrare i dati. Le piattaforme di accesso alla rete zero-trust applicano politiche di verifica a ogni interazione con l’AI, indipendentemente dalla posizione dell’utente o dal dispositivo. Questo approccio impedisce l’esfiltrazione dei dati attraverso i canali di AI, mantenendo al contempo l’esperienza dell’utente.
Domande frequenti
Come posso capire se la mia azienda ha un problema di Shadow AI?
Per identificare se la tua azienda ha problemi di Shadow AI, cerca innanzitutto modelli come accessi strani ai dati, aumenti inspiegabili del traffico cloud e output di AI prodotti al di fuori degli strumenti autorizzati. Poiché la Shadow AI opera dietro il traffico browser crittografato, gli strumenti di sicurezza tradizionali potrebbero non rilevarla e potrebbero essere necessari strumenti di rilevamento specializzati per comprendere meglio il panorama. La probabilità di adozione ombra aumenta se la tua azienda non dispone di politiche formali in materia di AI o se il processo di approvazione IT è burocraticamente lento.
Quali sono le domande che un CISO dovrebbe porre riguardo alla Shadow AI?
Inizia con domande sulla visibilità: a quali strumenti di AI accedono i dipendenti e quali sono i dati che inseriscono? Passa poi alla governance: disponiamo di politiche chiare sull’uso accettabile dell’AI, sulla supervisione dell’adozione di nuovi strumenti e sui mezzi tecnici per applicare tali politiche? Infine, poni domande sul rischio: siamo in grado di monitorare le attività di AI per un audit di conformità e abbiamo valutato il potenziale impatto di una violazione della Shadow AI?
Qual è il primo passo per controllare la Shadow AI?
Il primo passo per controllare la Shadow AI è la visibilità ottenuta attraverso la scoperta. Solo allora è possibile applicare le politiche in modo efficace. Monitora il traffico di rete relativo all’AI e implementa attività di inventario della Shadow AI per valutare gli strumenti di AI utilizzati dai dipendenti. Valuta i registri di autenticazione per “Accedi con Google” e le integrazioni SSO con servizi che l’organizzazione non riconosce. L’inventario della Shadow AI richiede tempo, ma è il primo passo fondamentale.
In che modo la Shadow AI influisce sulla conformità e sulla protezione dei dati?
L’uso non regolamentato della Shadow AI rende la governance tradizionale dei dati altamente inefficace. I dipendenti che inseriscono dati sensibili in strumenti non approvati creano flussi di dati non tracciabili e non controllabili. I dati potrebbero quindi non essere conformi alle politiche di conservazione e cancellazione previste dal GDPR o da vari standard di settore. Inoltre, i rischi di violazione dei dati AI all’interno dell’UE sono altamente regolamentati con sanzioni pari al 4% del fatturato globale. Anche le organizzazioni sanitarie sono altamente regolamentate per quanto riguarda i rischi di violazione dei dati ai sensi della conformità HIPAA.