L’utilizzo dell’IA generativa (GenAI) è esploso nell’ultimo anno. Ciò ha portato a un notevole cambiamento del tono delle notizie in tema riportate dai giornali dal 2023 al 2024. Lo scorso anno, Forbes ha riportato che JPMorgan Chase, Amazon e numerose università degli Stati Uniti avevano deciso di vietare o limitare l’utilizzo di ChatGPT. Inoltre, la stampa riportava che Amazon e Samsung avevano scoperto che alcuni collaboratori condividevano codice e altri dati riservati con la chatbot di OpenAI.
Se confrontiamo questi contenuti con quelli del 2024, ora l’accento è su come gli assistenti IA vengono adottati dalle aziende in tutto il mondo. J.P. Morgan distribuisce ChatGPT a 60.000 collaboratori per aiutarli a lavorare in modo più efficiente. Amazon ha recentemente annunciato di utilizzare l’IA generativa per migrare 30.000 applicazioni su una nuova piattaforma con un risparmio pari all’equivalente di 4.500 anni di sviluppo e 260 milioni di dollari.
Il sondaggio mondiale 2024 di McKinsey sull’IA mostra quanto sia evoluta la situazione. Ha rilevato che il 65% degli intervistati ha affermato che le loro aziende ora utilizzano regolarmente l’IA generativa. Si tratta di una cifra doppia rispetto a 10 mesi fa.
L’aspetto più rilevante di questa tendenza è che le aziende adottano l’IA generativa sotto l’effetto della pressione competitiva, spronati dal timore di rimanere indietro. In questo caso, come possono ridurre i rischi? Ciò è quanto andiamo a analizzare in quest’articolo.
IA generativa: un nuovo tipo di rischio interno
Come strumento di produttività, l’IA generativa apre la porta ai rischi interni causati da utenti negligenti, compromessi o malintenzionati.
- Utenti interni negligenti. Questi utenti possono inserire dati sensibili, come informazioni dei clienti, algoritmi proprietari o strategie interne, all’interno di strumenti di IA generativa. Allo stesso modo, possono utilizzarli per creare contenuti che non rispettano gli standard legali o normativi di un’azienda, per esempio documenti con un linguaggio discriminatorio o immagini non appropriate. Questa situazione comporta dei rischi legali non trascurabili. Inoltre, alcuni utenti possono utilizzare strumenti di IA generativa non autorizzati, portando a vulnerabilità di sicurezza e problemi di conformità.
- Utenti interni compromessi. L’accesso agli strumenti di IA generativa può venire compromesso dai criminali informatici che sfruttano tale accesso per estrarre, generare o condividere i dati sensibili con persone esterne all’azienda.
- Utenti interni malintenzionati. Alcuni utenti interni sono intenzionati a danneggiare l’azienda e possono far trapelare informazioni sensibili all’interno di strumenti di IA generativa pubblici. Oppure, se hanno accesso a modelli o set di dati proprietari, possono utilizzare questi strumenti per creare prodotti concorrenti. Possono anche utilizzare l’IA generativa per creare o modificare record, con l’intento di impedire ai revisori di identificare le discrepanze o i problemi di conformità.
Per ridurre questi rischi, le aziende hanno bisogno di una combinazione di controlli tecnici, policy interne e strategie incentrati sulle persone. Non solo devono poter monitorare l’utilizzo dell’IA e l’accesso ai dati, ma anche adottare misure appropriate, come la formazione dei collaboratori, e un solido framework etico.
Sicurezza incentrata sulle persone per l’IA generativa
L’adozione in sicurezza di questa tecnologia è una priorità per la maggior parte dei CISO. Proofpoint offre una soluzione di protezione delle informazioni adattiva e incentrata sulle persone che può esserti d’aiuto. La nostra soluzione ti offre la visibilità e il controllo sull’utilizzo dell’IA generativa nella tua azienda. Inoltre, tale visibilità si estende a endpoint, cloud e web. Ecco come:
Ottieni visibilità sugli strumenti di IA generativa non approvati:
- Traccia l’utilizzo di oltre 600 siti di IA generativa per utente, gruppo o dipartimento interno.
- Monitora l’utilizzo di applicazioni di IA generativa grazie al contesto basato sui rischi legati agli utenti.
- Identifica le autorizzazioni delle applicazioni di IA di terze parti connesse al tuo archivio delle identità.
- Ricevi avvisi quando le credenziali d’accesso aziendali vengono utilizzate per servizi di IA generativa.
Applica policy di utilizzo accettabile per gli strumenti di IA generativa e previeni la perdita di dati:
- Blocca gli upload su web e l’inserimento di dati sensibili nei siti di IA generativa.
- Impedisci di digitare dati sensibili all’interno di strumenti come ChatGPT, Gemini, Claude, Copilot, ecc.
- Revoca le autorizzazioni d’accesso delle applicazioni di IA generativa di terze parti.
- Monitora l’utilizzo di Copilot per Microsoft 365 e ricevi avvisi quando i file sensibili vengono consultati via email, file e messaggi Teams.
- Applica etichette Microsoft Information Protection (MIP) ai file sensibili e assicurati che Copilot utilizzi le stesse etichette per i contenuti generati da questi file.
Monitora e identifica le minacce interne grazie a policy di IA generativa dinamiche:
- Acquisisci metadati e schermate prima e dopo l’accesso degli utenti agli strumenti di IA generativa.
Forma i collaboratori sull’utilizzo accettabile degli strumenti di IA generativa:
- Sensibilizza gli utenti all’utilizzo sicuro dell’IA generativa con video, poster, moduli interattivi e newsletter.
- Automatizza la formazione personalizzata per i tuoi utenti più a rischio.
Puoi anche sfruttare la competenza dei servizi gestiti Proofpoint per ottimizzare il tuo programma di protezione delle informazioni per l’adozione dell’IA generativa e rispettare le best practice.
Per saperne di più
Contatta il tuo account manager per scoprire come Proofpoint può aiutarti a implementare policy d’uso accettabile per gli strumenti di IA generativa e testare la nostra soluzione.
Per vedere una demo della nostra soluzione di protezione delle informazioni per l’IA generativa, guarda il nostro webinar on demand “Top Data Loss User Cases on Endpoints”.