Cosa sono i deepfake?

I deepfake si sono rapidamente affermati come uno degli sviluppi tecnologici più preoccupanti degli ultimi anni, con implicazioni che spaziano dalla privacy personale alla sicurezza nazionale. Secondo statistiche recenti, i casi di frode legati ai deepfake sono aumentati in modo significativo in tutto il mondo: tra il 2022 e l’inizio del 2023, la loro incidenza è cresciuta di dieci volte a livello globale, con un’ulteriore accelerazione nel primo trimestre del 2023.

La Formazione sulla Cybersecurity Inizia Qui

Inizia una Prova Gratuita

Ecco come funziona la tua prova gratuita:

  • Parla con i nostri esperti di sicurezza informatica per valutare il tuo ambiente e identificare la tua esposizione al rischio di minacce
  • Entro 24 ore e con un minimo di configurazione, implementeremo i nostri strumenti per 30 giorni
  • Prova la nostra tecnologia in prima persona!
  • Ricevi un rapporto che delinea le tue vulnerabilità di sicurezza per aiutarti a prendere subito provvedimenti adeguati contro gli attacchi alla tua sicurezza informatica

Compila questo modulo per richiedere un incontro con i nostri esperti di sicurezza informatica.

Grazie per esserti registrato per la nostra prova gratuita. Un rappresentante di Proofpoint si metterà in contatto con te a breve, guidandoti nei prossimi passi da seguire.

Cos’è un deepfake?

Un deepfake è una forma elaborata di media sintetico che utilizza l’intelligenza artificiale (IA) e l’apprendimento automatico (Machine Learning - ML) per creare o manipolare audio, video o immagini in modo che appaiano convincenti e realistici. Il termine, nato dalla fusione di “deep learning” e “fake”, riflette proprio l’uso di algoritmi di apprendimento profondo nel processo di creazione. Queste falsificazioni generate dall’IA possono variare dalla sostituzione di volti nei video (face swapping) alla creazione di registrazioni audio o immagini completamente inventate di persone inesistenti.

I deepfake sfruttano tecnologie avanzate come:

  • Algoritmi di riconoscimento facciale
  • Reti neurali artificiali
  • Autoencoder variazionali (VAE)
  • Reti generative avversarie (GAN)

Questi strumenti consentono ai malintenzionati di produrre contenuti apparentemente realistici che possono essere estremamente difficili da distinguere dai media legittimi. I criminali informatici sfruttano spesso questa tecnologia per scopi illeciti come frodi d’identità, attacchi di ingegneria sociale, campagne di disinformazione e persino spionaggio industriale.

Storia dei deepfake

L’evoluzione della tecnologia deepfake è stata rapida e multiforme:

  • Anni ’90: i ricercatori iniziano a usare la CGI (Computer-Generated Imagery) per creare immagini realistiche di esseri umani, gettando le basi per la futura tecnologia.
  • 2014: Ian Goodfellow introduce le Reti Generative Avversarie (GAN), una svolta nel deep learning che avrebbe poi reso possibile la creazione di deepfake sofisticati.
  • 2017: il termine “deepfake” viene coniato da un utente di Reddit, che crea un subreddit per condividere materiale pornografico in cui i volti di celebrità venivano sostituiti.
  • 2018: i deepfake conquistano l’attenzione del grande pubblico, con piattaforme come BuzzFeed che creano video virali per dimostrare il potenziale della tecnologia.
  • 2019: in soli nove mesi, il numero di video deepfake online quasi raddoppia, superando i 15.000.
  • 2021: emergono modelli di IA text-to-image come DALL-E, che espandono l’ambito dei media sintetici oltre il face swapping.
  • 2023-2024: gli incidenti legati ai deepfake crescono del 245% su base annua, con un’impennata in vari settori, tra cui iGaming, marketplace e fintech.

Questa rapida progressione evidenzia l’evoluzione della tecnologia da strumenti primitivi a sistemi di IA generativa in grado di creare identità sintetiche e media altamente convincenti.

Come funziona la tecnologia deepfake

La tecnologia deepfake opera attraverso un processo avanzato che si articola in diversi passaggi fondamentali:

  1. Raccolta dei dati: il primo passo consiste nel raccogliere un vasto set di dati del soggetto target (video, immagini o audio). Più questo set di dati è diversificato e completo, più realistico sarà il deepfake finale.
  2. Addestramento: vengono quindi utilizzati algoritmi di deep learning per addestrare il modello di IA sui dati raccolti. Questa fase comporta l’analisi di caratteristiche facciali, espressioni e movimenti per comprendere l’aspetto e il comportamento del soggetto in vari contesti.
  3. Generazione: una volta addestrato, il modello è in grado di creare nuovi contenuti basandosi sui pattern appresi. Ciò può includere la sovrapposizione del volto del soggetto su un altro corpo in un video o la generazione di un audio completamente nuovo con la sua voce.
  4. Perfezionamento: il risultato iniziale è spesso imperfetto, quindi si procede con un processo di miglioramento iterativo. La messa a punto può richiedere ulteriore addestramento, regolazioni manuali o l’uso di altri strumenti di IA per aumentare il realismo.

Il cuore della maggior parte dei sistemi di deepfake è una Rete Generativa Avversaria (GAN). In una GAN, due sistemi di IA competono tra loro:

  • Un generatore crea contenuti falsi
  • Un discriminatore cerca di rilevare se il contenuto è reale o falso

Questi due sistemi si sfidano e migliorano a vicenda, con il generatore che crea falsi sempre più convincenti grazie al feedback del discriminatore.

Tecnologie utilizzate per sviluppare i deepfake

Diverse tecnologie sono fondamentali nello sviluppo dei deepfake:

  • Reti Neurali Convoluzionali (CNN): queste reti neurali, altamente specializzate, eccellono nell’analisi di dati visivi. Nei deepfake, le CNN vengono usate per il riconoscimento facciale e il tracciamento dei movimenti, consentendo al sistema di replicare complesse caratteristiche ed espressioni.
  • Autoencoder: queste reti neurali comprimono i dati in una rappresentazione compatta per poi ricostruirli. Nella generazione di deepfake, gli autoencoder aiutano a identificare e applicare attributi rilevanti, come le espressioni facciali e i movimenti del corpo, ai video di origine.
  • Elaborazione del Linguaggio Naturale (NLP): per i deepfake audio, le tecnologie NLP analizzano i pattern vocali e generano un parlato originale che imita la voce e lo stile del soggetto.
  • Calcolo ad alte prestazioni: la produzione di deepfake richiede una notevole potenza di calcolo, specialmente per addestrare modelli di IA complessi e generare output di alta qualità. Spesso vengono utilizzate GPU e risorse di cloud computing.
  • Reti Generative Avversarie (GAN): come già accennato, le GAN costituiscono la spina dorsale della maggior parte dei sistemi deepfake. Sfruttano il deep learning per riconoscere i pattern in immagini autentiche e creare poi falsi convincenti.
  • Reti Neurali Ricorrenti (RNN): spesso usate in combinazione con altre tecniche, le RNN sono particolarmente utili per compiti come la sincronizzazione labiale (lip-syncing) nei video, poiché sono in grado di elaborare sequenze di dati.

Con la continua evoluzione di queste tecnologie, la qualità e l’accessibilità degli strumenti per la creazione di deepfake sono destinate ad aumentare.

Tipi di truffe deepfake

La tecnologia deepfake ha dato origine a vari tipi di truffe, ognuna delle quali rappresenta una minaccia unica per individui e organizzazioni. Ecco le più comuni:

  • Frodi finanziarie: i criminali usano audio o video deepfake per impersonare dirigenti aziendali e autorizzare bonifici o transazioni fraudolente. Un caso recente di alto profilo ha portato a una perdita di 25 milioni di dollari.
  • Compromissione di account: i deepfake vengono usati per aggirare le misure di sicurezza biometrica, consentendo ai truffatori di ottenere l’accesso non autorizzato agli account. Gartner ha previsto che nel 2023 i deepfake avrebbero avuto un ruolo nel 20% degli attacchi di questo tipo.
  • Frodi nella richiesta di prestiti: i truffatori creano identità sintetiche con la tecnologia deepfake per richiedere prestiti e carte di credito o aprire conti bancari in modo fraudolento.
  • Manipolazione del mercato azionario: video o audio falsificati di dirigenti aziendali che fanno annunci vengono usati per influenzare artificialmente il prezzo delle azioni.
  • Danno reputazionale: i deepfake possono essere usati per creare falsi post sui social media o video di manager o dipendenti che si comportano in modo inappropriato, danneggiando il brand e la reputazione di un’azienda.
  • Ingegneria sociale: i deepfake aumentano l’efficacia degli attacchi di phishing creando imitazioni più convincenti di persone fidate.
  • Creazione di contenuti non consensuali: i malintenzionati creano contenuti deepfake di dipendenti senza il loro consenso, che possono portare a molestie, ricatti o danni alla reputazione.
  • Campagne di disinformazione: i deepfake vengono usati per diffondere rapidamente informazioni false, con il potenziale di influenzare l’opinione pubblica o i risultati elettorali.

I pericoli dei deepfake per la sicurezza informatica sono di vasta portata. Forse la minaccia più grave è l’erosione della fiducia nelle comunicazioni digitali e nei media, poiché diventa sempre più difficile distinguere i contenuti autentici da quelli manipolati. Questo genera un profondo stato di incertezza, che influenza significativamente i processi decisionali sia in ambito personale che professionale.

I deepfake migliorano notevolmente l’efficacia degli attacchi di social engineering, rendendo il phishing e altre tattiche di manipolazione più convincenti. La tecnologia rappresenta anche una minaccia significativa per le misure di sicurezza biometrica, poiché i deepfake più sofisticati possono aggirare i sistemi di riconoscimento facciale e di autenticazione vocale.

Le frodi basate sui deepfake hanno causato perdite ingenti a individui e organizzazioni, con alcuni casi eclatanti che hanno coinvolto milioni di dollari. La rapida diffusione di disinformazione può manipolare l’opinione pubblica o persino influenzare i risultati elettorali, minacciando seriamente la stabilità sociale e politica.

I deepfake sono illegali?

La legalità dei deepfake è una questione complessa e in evoluzione. Negli Stati Uniti, ad esempio, attualmente non esiste una legge federale che vieti o regoli esplicitamente tutte le forme di deepfake. Tuttavia, alcuni loro usi possono essere perseguiti ai sensi delle leggi esistenti, in particolare quando impiegati per scopi dannosi come frode, diffamazione o pornografia non consensuale.

Diversi stati americani hanno adottato misure legislative per affrontare preoccupazioni specifiche. Texas e California hanno approvato leggi che vietano l’uso dei deepfake per influenzare le elezioni. Inoltre, California, Georgia e Virginia hanno promulgato leggi che vietano la creazione e la distribuzione di materiale pornografico deepfake non consensuale. Queste iniziative a livello statale rappresentano un approccio frammentato alla regolamentazione, concentrandosi sulle applicazioni più dannose.

A livello federale, sebbene manchi ancora una legislazione completa, sono in corso sforzi per affrontare le sfide poste dai deepfake. Il Congresso degli Stati Uniti sta esaminando diversi progetti di legge, tra cui il Deepfake Report Act e il DEEPFAKES Accountability Act, che mirano a migliorare la comprensione della tecnologia e a fornire un ricorso legale alle vittime. Le forze dell’ordine stanno inoltre sviluppando strumenti e strategie per individuare e combattere gli usi dannosi dei deepfake, in particolare nei settori della prevenzione delle frodi e della sicurezza elettorale.

Esempi di deepfake

Sebbene molti deepfake siano creati per intrattenimento o scopi educativi, ci sono stati diversi esempi reali di utilizzo malevolo. Ecco alcuni dei più recenti.

Manipolazione politica del Presidente Biden

All’inizio del 2024, è circolato un audio deepfake del Presidente Biden che lo faceva apparire mentre rilasciava dichiarazioni controverse sulla sicurezza nazionale. Questo incidente ha dimostrato il potenziale dei deepfake di fuorviare l’opinione pubblica e creare confusione durante un anno elettorale.

Taylor Swift nel mirino

Nel 2024 sono apparsi video deepfake che ritraevano la pop star Taylor Swift in situazioni compromettenti e inventate. Questo caso evidenzia come le celebrità siano costantemente vulnerabili a questa tecnologia, che può essere usata per creare contenuti dannosi che minacciano la reputazione e la privacy.

Frode finanziaria a Hong Kong

Un caso emblematico avvenuto a Hong Kong ha coinvolto un dipendente del settore finanziario, convinto a trasferire 25 milioni di dollari dopo essere stato ingannato da un deepfake del suo direttore finanziario e di altri colleghi durante una videochiamata. L’incidente sottolinea la crescente sofisticazione delle truffe, in cui i criminali possono impersonare in modo convincente figure di fiducia per eseguire frodi su larga scala.

Campagna di sensibilizzazione dell’Arizona Agenda

Nel marzo 2024, l’organizzazione Arizona Agenda ha creato un deepfake della candidata al Senato Kari Lake per sensibilizzare l’opinione pubblica sui potenziali pericoli nelle imminenti elezioni. Utilizzando intenzionalmente un deepfake in un contesto politico, la campagna mirava a educare gli elettori sui rischi della disinformazione.

Foto false di Donald Trump

All’inizio di marzo 2024, una serie di foto false che mostravano Donald Trump mentre interagiva con elettori afroamericani è circolata sui social media. Queste immagini, generate con servizi di IA come Midjourney, avevano probabilmente lo scopo di manipolare l’opinione pubblica, dimostrando come la tecnologia deepfake possa essere strumentalizzata per ottenere vantaggi politici.

Rilevare e mitigare i rischi dei deepfake

Con la continua evoluzione della tecnologia, le organizzazioni devono adottare strategie complete per rilevare e mitigare i rischi associati. Uno degli approcci più efficaci consiste nell’utilizzare tecnologie di rilevamento avanzate basate su IA e ML. Questi strumenti analizzano a fondo i contenuti audio e video alla ricerca di sottili incongruenze, spesso impercettibili all’occhio o all’orecchio umano, consentendo una rapida identificazione dei potenziali deepfake.

I sistemi di rilevamento basati sull’IA usano il riconoscimento di pattern per identificare anomalie, mentre l’analisi multimodale esamina vari elementi (visivi, audio, metadati) per valutare l’autenticità. Alcune soluzioni utilizzano anche la tecnologia blockchain per verificare l’origine e l’integrità dei file multimediali.

Per rafforzare le tue difese, dovresti implementare una combinazione di soluzioni tecnologiche e best practice, tra cui:

  • Autenticazione a più fattori (MFA): combina fattori biometrici e comportamentali con le password tradizionali per prevenire lo spoofing dell’identità. Valuta l’uso di un generatore di password per creare password complesse e sicure.
  • Formazione dei dipendenti: forma il personale sui rischi associati ai deepfake e su come identificare contenuti manipolati, promuovendo una cultura basata sulla consapevolezza e la vigilanza.
  • Protocolli di verifica: stabilisci procedure per confermare l’autenticità delle comunicazioni sensibili, in particolare quelle che riguardano transazioni finanziarie.
  • Watermarking e firme digitali: utilizza queste tecnologie sui contenuti originali per aiutare a verificarne l’autenticità e scoraggiare la manipolazione.
  • Aggiornamenti costanti: tieniti informato sulle ultime tecniche di deepfake e sulle contromisure, aggiornando regolarmente i software di rilevamento.
  • Collaborazione con esperti: collabora con aziende di sicurezza informatica e istituzioni accademiche per accedere a tecnologie di rilevamento e ricerche all’avanguardia.
  • Piani di gestione degli incidenti: sviluppa protocolli per gestire i casi sospetti di deepfake, comprese misure di verifica, segnalazione e mitigazione.

Integrando queste tecnologie di rilevamento avanzate con solide pratiche organizzative, le aziende possono rafforzare in modo significativo le loro difese contro i rischi posti dai deepfake.

In che modo Proofpoint può aiutarti

Proofpoint offre soluzioni potenti per combattere la minaccia in evoluzione dei deepfake e di altri contenuti generati dall’IA utilizzati negli attacchi di social engineering. Il suo approccio multilivello si concentra sia sulle difese tecnologiche che sulla formazione sulla sicurezza incentrata sul fattore umano:

Grazie alle soluzioni e all’esperienza di Proofpoint, le organizzazioni possono migliorare la propria resilienza contro gli attacchi basati sui deepfake e altre tattiche di social engineering basate sull’IA, garantendo un ambiente digitale più sicuro. Per ulteriori informazioni, contatta Proofpoint.

Pronto a provare Proofpoint?

Inizia la tua prova gratuita di Proofpoint.