Sommaire
Les deepfakes sont rapidement devenus l’une des évolutions technologiques les plus préoccupantes de ces dernières années, avec des implications en matière de menaces allant de la vie privée personnelle à la sécurité nationale.
Selon les statistiques récentes, il y a eu une augmentation significative des cas de fraude liés aux deepfakes dans le monde entier. Entre 2022 et début 2023, les cas de fraude par deepfake ont augmenté de 10 fois à l’échelle mondiale. Et rien qu’au premier trimestre 2023, les incidents de deepfake ont augmenté de 245 % par rapport à l’année précédente dans le monde (avec une augmentation de 303 % aux États-Unis).
Cette menace alarmante est particulièrement marquée dans les pays qui tiendront des élections en 2024, certains pays connaissant des taux de croissance impressionnants dans les arnaques par deepfake.
Principalement alimentés par les avancées de l’intelligence artificielle générative (IA), les deepfakes sont devenus une préoccupation majeure en matière de cybersécurité, touchant nations, organisations et individus.
La formation à la cybersécurité commence ici
Votre évaluation gratuite fonctionne comme suit :
- Prenez rendez-vous avec nos experts en cybersécurité afin qu’ils évaluent votre environnement et déterminent votre exposition aux menaces.
- Sous 24 heures et avec une configuration minimale, nous déployons nos solutions pour une durée de 30 jours.
- Découvrez nos technologies en action !
- Recevez un rapport mettant en évidence les vulnérabilités de votre dispositif de sécurité afin que vous puissiez prendre des mesures immédiates pour contrer les attaques de cybersécurité.
Remplissez ce formulaire pour demander un entretien avec nos experts en cybersécurité.
Un représentant de Proofpoint vous contactera sous peu.
Qu’est-ce qu’un deepfake ? Définition
Un deepfake est une forme élaborée de média synthétique qui utilise des techniques d’IA (intelligence artificielle) et d’apprentissage automatique (machine learning, ML) pour fabriquer ou manipuler des audio, vidéos ou images qui semblent de manière convaincante réels.
Le terme « deepfake » est issu de la combinaison de « deep learning » (apprentissage profond) et de « fake » (faux), pour refléter l’utilisation d’algorithmes d’apprentissage profond dans le processus de création.
Ces contrefaçons générées par IA peuvent aller de l’échange de visages dans des vidéos à la création d’enregistrements audio ou d’images totalement fabriquées de personnes qui n’existent pas.
Les deepfakes utilisent des technologies avancées telles que :
- Les algorithmes de reconnaissance faciale
- Les réseaux neuronaux artificiels
- Les auto-encodeurs variationnels (VAEs)
- Les réseaux antagonistes génératifs (GANs)
Ces outils permettent aux imposteurs de produire du contenu d’apparence réaliste, difficile à distinguer des médias légitimes. Les acteurs malveillants exploitent souvent cette technologie à des fins malveillantes, telles que l’usurpation d’identité, les attaques d’ingénierie sociale, les campagnes de désinformation et même l’espionnage industriel.
Histoire des deepfakes
L’évolution de la technologie des deepfakes a été rapide et multiforme :
- Années 1990 : Les chercheurs ont commencé à utiliser la CGI (images générées par ordinateur) pour créer des images réalistes de l’humain, jetant les bases de la technologie des deepfakes futures.
- 2014 : Ian Goodfellow a introduit les Réseaux Antagonistes Génératifs (GANs), une avancée dans l’apprentissage profond qui permettrait éventuellement de créer des deepfakes sophistiqués.
- 2017 : Le terme « deepfake » a été inventé par un utilisateur de Reddit qui a créé un subreddit pour partager des vidéos pornographiques de célébrités avec des visages échangés.
- 2018 : Les deepfakes ont gagné en visibilité, avec des plateformes comme BuzzFeed créant des vidéos virales démontrant le potentiel de cette technologie.
- 2019 : Le nombre de vidéos deepfake en ligne a presque doublé en seulement neuf mois, atteignant plus de 15 000 vidéos.
- 2021 : Des modèles d’IA text-to-image comme DALL-E ont émergé, élargissant le champ des médias synthétiques au-delà de l’échange de visages.
- 2023-2024 : Les incidents de deepfake ont augmenté de 245 % d’une année à l’autre, avec une croissance significative dans divers secteurs, notamment les jeux en ligne (iGaming), les marketplaces et la fintech.
Cette progression rapide met en lumière l’évolution de la technologie, passant d’outils primitifs à des systèmes d’IA générative capables de créer des médias et des identités synthétiques hautement convaincants.
Fonctionnement de la technologie deepfake
La technologie des deepfakes fonctionne grâce à un processus avancé qui implique plusieurs étapes essentielles pour générer un contenu :
- Collecte de données : La première étape consiste à rassembler un ensemble de données important lié au sujet cible, qu’il s’agisse de vidéos, d’images ou de fichiers audio. Plus cet ensemble de données est diversifié et complet, plus le deepfake final sera réaliste.
- Entraînement : Des algorithmes d’apprentissage profond sont utilisés pour entraîner le modèle d’IA sur les données collectées. Cela inclut l’analyse des traits du visage, des expressions et des mouvements afin de comprendre comment le sujet apparaît et se comporte dans divers contextes.
- Génération : Une fois entraîné, le modèle peut créer de nouveaux contenus en fonction des modèles appris. Cela peut consister à superposer le visage de la cible sur le corps d’une autre personne dans une vidéo ou à générer de nouveaux enregistrements audio utilisant la voix de la cible.
- Affinage : Le premier résultat est souvent imparfait, donc un processus d’amélioration itératif suit. Le réglage du contenu généré peut inclure un nouvel entraînement, des ajustements manuels ou l’utilisation d’outils d’IA supplémentaires pour améliorer le réalisme.
Le cœur de la plupart des systèmes deepfake repose sur un réseau antagoniste génératif (GAN). Dans un GAN, deux systèmes d’IA travaillent en opposition :
- Un Générateur crée du contenu falsifié.
- Un Discriminateur tente de détecter si le contenu est réel ou faux.
Ces systèmes se concurrencent et s’améliorent mutuellement, le générateur créant des faux de plus en plus convaincants en fonction des retours du discriminateur.
Technologies utilisées pour développer les deepfakes
Plusieurs technologies jouent un rôle essentiel dans le développement des deepfakes, notamment :
- Réseaux de neurones convolutifs (CNNs) : Ces réseaux de neurones hautement spécialisés sont excellents pour analyser des données visuelles. Dans le cas des deepfakes, les CNNs sont utilisés pour la reconnaissance faciale et le suivi des mouvements, permettant au système de reproduire des traits et expressions faciales complexes.
- Auto-encodeurs : Ces réseaux de neurones compressent les données en une représentation compacte, puis les reconstruisent. Lors de la création de deepfakes, les auto-encodeurs aident à identifier et à imposer des attributs pertinents tels que les expressions faciales et les mouvements corporels sur les vidéos sources.
- Traitement du langage naturel (NLP) : Pour les deepfakes audio, les technologies NLP analysent les modèles de parole et génèrent un texte original qui imite la voix et le style de parole de la cible.
- Informatique haute performance : La production de deepfakes nécessite une puissance de calcul importante, notamment pour l’entraînement de modèles d’IA complexes et la génération de sorties de haute qualité. Les GPU et les ressources de cloud computing sont souvent utilisés.
- Réseaux antagonistes génératifs (GANs) : Comme mentionné précédemment, les GANs sont l’épine dorsale de la plupart des systèmes de deepfake. Ils utilisent l’apprentissage profond pour reconnaître les motifs dans les images authentiques afin de créer des faux convaincants.
- Réseaux de neurones récurrents (RNNs) : Souvent utilisés en combinaison avec d’autres techniques, les RNNs sont particulièrement utiles pour des tâches telles que le synchronisme labial dans les vidéos deepfake, car ils peuvent traiter des séquences de données.
À mesure que ces technologies continuent d’évoluer en sophistication, la qualité et l’accessibilité des outils de développement de deepfakes devraient augmenter.
Types de fraudes par deepfake
La technologie des deepfakes a donné naissance à divers types de fraudes, chacune présentant des menaces uniques pour les individus et les organisations. Voici certains des types de fraudes par deepfake les plus courants :
- Fraude financière : Les criminels utilisent des vidéos ou des audios deepfake pour usurper l’identité de dirigeants et autoriser des virements bancaires ou des transactions financières frauduleuses. Ce type de fraude a conduit à une perte de 25 millions de dollars dans un cas récemment médiatisé.
- Prise de contrôle de comptes : Les deepfakes sont utilisés pour contourner les mesures de sécurité biométriques, permettant aux fraudeurs d’accéder illégalement aux comptes. Gartner a prédit qu’en 2023, les deepfakes joueraient un rôle dans 20 % des attaques réussies de piratage de comptes.
- Fraude par demande : Les escrocs créent de fausses identités à l’aide de la technologie deepfake pour solliciter des prêts, des cartes de crédit ou ouvrir des comptes bancaires de manière frauduleuse.
- Manipulation des prix des actions : Des vidéos ou audios fabriqués de dirigeants d’entreprises faisant des annonces sont utilisés pour influencer artificiellement les prix des actions.
- Dommages à la réputation : Les deepfakes peuvent créer de faux messages sur les réseaux sociaux ou des vidéos de dirigeants ou employés engageant un comportement inapproprié, endommageant ainsi l’image et la réputation de l’entreprise.
- Ingénierie sociale : Les deepfakes renforcent l’efficacité des attaques de phishing en créant des impersonations plus convaincantes d’individus de confiance.
- Exploitation des employés : Des acteurs malveillants créent du contenu deepfake non consensuel des employés, ce qui peut entraîner du harcèlement, du chantage ou des dommages à la réputation.
- Campagnes de désinformation : Les deepfakes sont utilisés pour diffuser de fausses informations rapidement, influençant potentiellement l’opinion publique ou les résultats des élections.
Les dangers pour la cybersécurité liés aux deepfakes sont considérables. Peut-être la menace la plus importante réside dans l’érosion de la confiance envers les communications et médias numériques, car les deepfakes rendent de plus en plus difficile de distinguer les contenus authentiques des contenus fabriqués. Cela génère une incertitude profonde, influençant de manière significative les processus de décision, tant personnels que professionnels.
Les deepfakes augmentent de manière dramatique l’efficacité des attaques d’ingénierie sociale, rendant les attaques de phishing et autres tactiques de manipulation plus convaincantes et potentiellement plus réussies. La technologie représente également une menace sérieuse pour les mesures de sécurité biométriques, car les deepfakes sophistiqués peuvent contourner les systèmes de reconnaissance faciale et d’authentification vocale.
La fraude alimentée par les deepfakes a entraîné des pertes substantielles pour les individus et les organisations, certains cas médiatisés impliquant des millions de dollars. La propagation rapide de la désinformation peut manipuler l’opinion publique, voire influencer les résultats des élections, menaçant gravement la stabilité sociale et politique.
Les deepfakes sont-ils illégaux ?
Les questions juridiques entourant les deepfakes constituent un sujet complexe et en constante évolution. Actuellement, il n’existe pas de loi fédérale complète aux États-Unis qui interdise ou régule explicitement toutes les formes de deepfakes. Cependant, certaines utilisations des deepfakes peuvent être illégales en vertu des lois existantes, notamment lorsqu’ils sont utilisés à des fins malveillantes telles que la fraude, la diffamation ou la pornographie non consensuelle.
Plusieurs États ont pris des mesures législatives pour répondre aux préoccupations spécifiques liées aux deepfakes. Par exemple, le Texas et la Californie ont adopté des lois interdisant l’utilisation des deepfakes pour influencer les élections. De plus, la Californie, la Géorgie et la Virginie ont promulgué des lois interdisant la création et la diffusion de pornographie deepfake non consensuelle. Ces initiatives au niveau des États représentent une approche fragmentée de la régulation des deepfakes, se concentrant sur leurs applications les plus nuisibles.
Au niveau fédéral, bien qu’une législation complète soit toujours en attente, des efforts sont en cours pour traiter les défis posés par les deepfakes. Le Congrès américain examine plusieurs projets de loi, dont le Deepfake Report Act et le DEEPFAKES Accountability Act, qui visent à améliorer la compréhension de la technologie et à offrir des recours juridiques pour les victimes. Les agences de la loi travaillent également à développer des outils et des stratégies pour détecter et lutter contre les usages malveillants des deepfakes, notamment dans des domaines tels que la prévention de la fraude et la sécurité des élections.
Exemples de deepfakes
Bien que de nombreux deepfakes soient créés à des fins de divertissement ou d’éducation, plusieurs exemples réels de deepfakes ont été utilisés à des fins malveillantes. Voici quelques-uns des exemples les plus récents.
Manipulation politique du président Biden
Début 2024, un deepfake audio du président Biden a circulé, le faisant apparaître comme s’il faisait des déclarations controversées concernant la sécurité nationale. Cet incident a illustré le potentiel des deepfakes à induire le public en erreur et à créer de la confusion lors d’une année électorale, soulevant des inquiétudes sur l’intégrité du discours politique.
Ciblage de Taylor Swift
En 2024, des vidéos deepfake mettant en scène la pop star Taylor Swift ont émergé, la représentant dans des scénarios compromettants et fabriqués. Ce cas souligne la vulnérabilité continue des célébrités face à la technologie des deepfakes, qui peut être utilisée pour créer des contenus nuisibles menaçant leur réputation et leur vie privée.
Fraude financière à Hong Kong
Un cas significatif de deepfake à Hong Kong a impliqué un employé de la finance qui a été trompé en transférant 39 millions de dollars après avoir été dupé par des imposteurs deepfake se faisant passer pour son directeur financier et ses collègues lors d’un appel vidéo. Cet incident souligne la sophistication croissante des escroqueries deepfake, où les criminels peuvent imiter de manière convaincante des figures de confiance pour commettre une fraude financière à grande échelle.
Campagne de sensibilisation d’Arizona Agenda
En mars 2024, Arizona Agenda a créé un deepfake du candidat au Sénat Kari Lake pour sensibiliser le public aux dangers potentiels des deepfakes lors des élections à venir. En utilisant délibérément un deepfake dans un contexte politique, la campagne visait à éduquer les électeurs sur les risques de désinformation et de manipulation des médias pendant les processus électoraux critiques.
Fausses photos de Donald Trump
Début mars 2024, un nouveau lot de photos truquées montrant Donald Trump interagissant avec des électeurs noirs a circulé sur les réseaux sociaux. Ces images, générées à l’aide de services d’IA tels que Midjourney, avaient probablement pour objectif de manipuler l’opinion publique et de courtiser les électeurs noirs, montrant comment la technologie des deepfakes peut être utilisée comme une arme à des fins politiques.
Détection et atténuation des risques des deepfakes
Alors que la technologie des deepfakes continue d’évoluer, les organisations doivent adopter des stratégies complètes pour détecter et atténuer les risques associés. L’une des approches les plus efficaces consiste à exploiter des technologies de détection avancées alimentées par l’IA et l’apprentissage automatique (ML).
Ces outils analysent de manière approfondie le contenu audio et vidéo à la recherche de petites incohérences qui peuvent être imperceptibles à l’œil ou à l’oreille humaine, permettant ainsi une identification rapide des deepfakes potentiels.
Les systèmes de détection alimentés par l’IA utilisent la reconnaissance de motifs pour identifier des anomalies dans les médias, tandis que l’analyse multimodale examine divers éléments, tels que les aspects visuels, audio et les métadonnées, afin d’évaluer l’authenticité. De plus, certaines solutions utilisent la technologie blockchain pour vérifier l’origine et l’intégrité des fichiers multimédias, renforçant ainsi la confiance.
Pour renforcer les défenses contre les deepfakes, les organisations devraient mettre en place une combinaison de solutions technologiques et de bonnes pratiques, notamment :
- Authentification multifactorielle : Combinez des facteurs biométriques et comportementaux avec des mots de passe traditionnels pour prévenir le vol d’identité. Envisagez d’utiliser un générateur de mots de passe pour vous aider à créer des mots de passe forts et sécurisés.
- Formation des employés : Sensibilisez le personnel aux risques associés aux deepfakes et à la manière d’identifier les contenus manipulés, afin de promouvoir une culture de vigilance.
- Protocoles de vérification : Établissez des procédures pour confirmer l’authenticité des communications sensibles, en particulier celles impliquant des transactions financières.
- Filigrane et signatures numériques : Utilisez ces technologies sur le contenu original pour aider à vérifier son authenticité et dissuader la manipulation.
- Mises à jour régulières : Restez informé des dernières techniques de deepfake et des contre-mesures en mettant à jour régulièrement les logiciels de détection.
- Collaboration avec des experts : Collaborez avec des entreprises de cybersécurité et des institutions académiques pour accéder aux technologies de détection de pointe et à la recherche.
- Plans de réponse aux incidents : Développez des protocoles de réponse aux incidents pour traiter les incidents de deepfake suspectés, y compris les étapes de vérification, de signalement et d’atténuation.
En intégrant ces technologies de détection avancées avec des pratiques organisationnelles solides, les entreprises peuvent considérablement renforcer leurs défenses contre les risques posés par les deepfakes.
Comment Proofpoint peut aider
Proofpoint propose des solutions puissantes pour lutter contre la menace évolutive des deepfakes et autres contenus générés par l’IA utilisés dans les attaques d’ingénierie sociale. Leur approche à multiples facettes se concentre à la fois sur les défenses technologiques et la sensibilisation à la sécurité centrée sur l’humain :
- Protection avancée contre les emails : Les solutions de sécurité par email de Proofpoint utilisent l’apprentissage automatique pour détecter et bloquer les tentatives de phishing sophistiquées, y compris celles qui peuvent exploiter la technologie des deepfakes.
- Formation à la sensibilisation à la sécurité : Proofpoint propose des programmes de formation personnalisables pour éduquer les employés aux dernières tactiques d’ingénierie sociale, y compris la manière d’identifier les deepfakes potentiels et les contenus générés par l’IA.
- Emerging Threats Intelligence : L’équipe de recherche sur les menaces de Proofpoint surveille en continu les menaces émergentes — y compris celles impliquant l’IA générative — afin de mettre à jour leurs capacités de détection et fournir des informations en temps réel à leurs clients.
- Défense à plusieurs niveaux contre les menaces : Proofpoint met l’accent sur l’importance d’une stratégie de sécurité globale qui combine des solutions technologiques avec la vigilance humaine pour créer une défense robuste contre les menaces d’ingénierie sociale en constante évolution.
En tirant parti des solutions et de l’expertise de Proofpoint, les organisations peuvent renforcer leur résilience contre les attaques alimentées par les deepfakes et autres tactiques d’ingénierie sociale basées sur l’IA, assurant ainsi un environnement numérique plus sécurisé pour leurs employés et leurs actifs. Pour plus d’informations, contactez Proofpoint.