Tabla de contenidos
Los deepfakes han surgido rápidamente como uno de los desarrollos tecnológicos más preocupantes de los últimos años, con implicaciones de amenazas que abarcan desde la privacidad personal hasta la seguridad nacional. Según estadísticas recientes, se ha producido un aumento significativo de los casos de fraude relacionados con deepfakes en todo el mundo. Entre 2022 y principios de 2023, se multiplicaron por 10 los casos de fraude por deepfake en todo el mundo. Y sólo en el primer trimestre de 2023, los incidentes de deepfake aumentaron un 245% interanual en todo el mundo (un 303% en EE.UU.).
Esta alarmante amenaza es especialmente pronunciada en los países que celebrarán elecciones en 2024, ya que algunas naciones experimentan tasas de incremento asombrosas en las estafas de deepfake. Impulsados principalmente por los avances en inteligencia artificial (IA) generativa, los deepfakes se han convertido en un problema de ciberseguridad generalizado que afecta a naciones, organizaciones y particulares.
La formación en ciberseguridad empieza aquí
La prueba gratuita funciona de la siguiente manera:
- Reúnase con nuestros expertos en ciberseguridad para evaluar su entorno e identificar su exposición a riesgos.
- En un plazo de 24 horas y con una configuración mínima, desplegaremos nuestras soluciones durante 30 días.
- ¡Conozca nuestra tecnología en acción!
- Reciba un informe que identifica sus vulnerabilidades de seguridad para ayudarle a tomar medidas inmediatas frente a ataques de ciberseguridad.
Rellene este formulario para solicitar una reunión con nuestros expertos en ciberseguridad.
Un representante de Proofpoint se comunicará con usted en breve.
¿Qué es un deepfake?
Un deepfake es una clase muy elaborada de medios sintéticos que utiliza técnicas de IA y aprendizaje automático (ML) para fabricar o manipular audio, vídeo o imágenes que parecen convincentemente reales. El término deepfake deriva de la mezcla de deep learning (aprendizaje profundo) y fake (falso) para reflejar el uso de algoritmos de aprendizaje profundo en el proceso de creación. Estas falsificaciones generadas por la IA pueden ir desde intercambiar caras en vídeos hasta crear grabaciones de audio o imágenes totalmente inventadas de personas que no existen.
Los deepfakes aprovechan tecnologías avanzadas como:
- Algoritmos de reconocimiento facial
- Redes neuronales artificiales
- Autocodificadores variacionales (VAE)
- Redes generativas adversariales (GAN)
Estas herramientas permiten a los impostores producir contenidos aparentemente realistas que pueden ser extremadamente difíciles de distinguir de los medios legítimos. Los agentes de amenaza suelen explotar esta tecnología para fines nefastos como el fraude de identidad, los ataques de ingeniería social, las campañas de desinformación e incluso el espionaje corporativo.
Historia de los deepfakes
La evolución de la tecnología deepfake ha sido rápida y polifacética:
- Década de 1990: Los investigadores comenzaron a utilizar CGI (imágenes generadas por ordenador) para crear imágenes realistas de seres humanos, sentando las bases para la futura tecnología deepfake.
- 2014: Ian Goodfellow introdujo las Redes Generativas Adversariales (GAN, del inglés “Generative Adversarial Networks”), un gran avance en el aprendizaje profundo que acabaría permitiendo sofisticadas deepfakes.
- 2017: El término deepfake fue acuñado por un usuario de Reddit que creó un subreddit para compartir pornografía de intercambio de rostros de famosos.
- 2018: Los deepfakes ganaron la atención del gran público, con plataformas como BuzzFeed creando vídeos virales que demostraban el potencial de la tecnología.
- 2019: El número de vídeos deepfake en línea casi se duplicó en sólo nueve meses, alcanzando más de 15.000.
- 2021: Surgen modelos de IA de texto a imagen como DALL-E, ampliando el alcance de los medios sintéticos más allá del intercambio de caras.
- 2023-2024: Los incidentes de deepfake aumentaron un 245% interanual, con un crecimiento significativo en varios sectores, como iGaming, mercados y tecnología financiera.
Esta rápida progresión pone de manifiesto la evolución de la tecnología, desde herramientas primitivas hasta sistemas generativos de IA capaces de crear medios e identidades sintéticas muy convincentes.
Cómo funciona la tecnología Deepfake
La tecnología Deepfake funciona mediante un proceso avanzado que implica varios pasos esenciales para generar un resultado:
- Recopilación de datos: El primer paso consiste en recopilar un conjunto de datos sustancial de contenidos relacionados con el sujeto objetivo, ya sean vídeos, imágenes o audio. Cuanto más diverso y completo sea este conjunto de datos, más realista será el deepfake final.
- Entrenamiento: A continuación, se utilizan algoritmos de aprendizaje profundo para entrenar el modelo de IA con los datos recopilados. Esto implica analizar los rasgos faciales, las expresiones y los movimientos para comprender el aspecto y el comportamiento del sujeto en diversos contextos.
- Generación: Una vez entrenado, el modelo puede crear nuevos contenidos basándose en los patrones aprendidos. Esto puede implicar la superposición del rostro del objetivo sobre el cuerpo de otra persona en un vídeo o la generación de un audio completamente nuevo utilizando la voz del objetivo.
- Perfeccionamiento: La salida inicial suele ser imperfecta, por lo que sigue un proceso iterativo de mejora. El perfeccionamiento del resultado puede implicar más entrenamiento, ajustes manuales o el uso de herramientas de IA adicionales para mejorar el realismo.
El núcleo de la mayoría de los sistemas de deepfake es una red generativa adversarial (Generative Adversarial Network o GAN). En una GAN, dos sistemas de IA trabajan en oposición el uno al otro:
- Un generador crea contenidos falsos
- Un discriminador intenta detectar si el contenido es real o falso
Estos sistemas compiten entre sí y se mejoran mutuamente, y el generador crea falsificaciones cada vez más convincentes basándose en los comentarios del discriminador.
Tecnología utilizada para desarrollar deepfakes
Múltiples tecnologías son cruciales en el desarrollo de los deepfakes, entre ellas:
- Redes neuronales convolucionales (CNN): Estas redes neuronales altamente especializadas destacan en el análisis de datos visuales. En los deepfakes, las CNN se utilizan para el reconocimiento facial y el seguimiento del movimiento, lo que permite al sistema reproducir rasgos y expresiones faciales complejos.
- Autocodificadores: Estas redes neuronales comprimen los datos en una representación compacta y luego los reconstruyen. Al generar deepfakes, los autocodificadores ayudan a identificar e imponer atributos relevantes como expresiones faciales y movimientos corporales en los vídeos de origen.
- Procesamiento del lenguaje natural (PLN): Para los deepfakes de audio, las tecnologías NLP analizan los patrones del habla y generan un texto original que imita la voz y el estilo de habla del objetivo.
- Computación de alto rendimiento: La producción de deepfakes requiere una potencia informática considerable, especialmente para entrenar modelos complejos de IA y generar resultados de alta calidad. A menudo se utilizan GPU y recursos informáticos en la nube.
- Redes generativas adversariales (GAN): Como ya se ha mencionado, las GAN son la columna vertebral de la mayoría de los sistemas de deepfake. Utilizan el aprendizaje profundo para reconocer patrones en imágenes auténticas para luego crear falsificaciones convincentes.
- Redes neuronales recurrentes (RNN): A menudo utilizadas junto con otras técnicas, las RNN son especialmente útiles para tareas como la sincronización labial en los deepfakes de vídeo, ya que pueden procesar secuencias de datos.
A medida que estas tecnologías sigan evolucionando en sofisticación, es probable que aumente la calidad y la accesibilidad de las herramientas de desarrollo de deepfakes.
Tipos de estafas con deepfakes
La tecnología deepfake ha dado lugar a varios tipos de estafas, cada una de las cuales plantea amenazas únicas a particulares y organizaciones. He aquí algunos de los tipos más comunes de estafas deepfake:
- Fraude financiero: Los delincuentes utilizan audio o vídeo deepfake para hacerse pasar por ejecutivos y autorizar transferencias o transacciones financieras fraudulentas. Este tipo de estafa provocó 23 millones de euros en pérdidas en un caso reciente de gran repercusión.
- Apropiación de cuentas: Las falsificaciones profundas se utilizan para eludir las medidas de seguridad biométricas, lo que permite a los estafadores obtener acceso no autorizado a las cuentas. Gartner predijo que, en 2023, los deepfakes desempeñarían un papel en el 20% de los ataques exitosos de apropiación de cuentas.
- Fraude de aplicaciones: Los estafadores crean identidades sintéticas utilizando la tecnología deepfake para solicitar préstamos y tarjetas de crédito o abrir cuentas bancarias de forma fraudulenta.
- Manipulación del precio de las acciones: Se utilizan vídeos o audios falsos de ejecutivos de empresas haciendo anuncios para influir artificialmente en los precios de las acciones.
- Daño a la reputación: Los deepfakes pueden crear publicaciones falsas en las redes sociales o vídeos de ejecutivos o empleados con un comportamiento inapropiado, dañando la marca y la reputación de una empresa.
- Ingeniería social: Los deepfakes aumentan la eficacia de los ataques de phishing al crear suplantaciones más convincentes de personas de confianza.
- Explotación de empleados: Los agentes maliciosos crean contenido deepfake no autorizado de empleados, lo que conduce a un posible acoso, chantaje o daño a la reputación.
- Campañas de desinformación: Los deepfakes se utilizan para difundir rápidamente información falsa, influyendo potencialmente en la opinión pública o en los resultados electorales.
Los peligros para la ciberseguridad de los deepfakes son de gran alcance. Tal vez la amenaza más significativa sea la erosión de la confianza en las comunicaciones y los medios digitales, ya que los deepfakes hacen cada vez más difícil distinguir entre contenido auténtico y forjado. Esto crea un profundo nivel de incertidumbre, que influye significativamente en los procesos de toma de decisiones tanto en contextos personales como profesionales.
Los deepfakes aumentan drásticamente la eficacia de los ataques de ingeniería social, haciendo que el phishing y otras tácticas de manipulación sean más convincentes y potencialmente más exitosas. La tecnología también supone una amenaza significativa para las medidas de seguridad biométricas, ya que los deepfakes sofisticados pueden eludir los sistemas de reconocimiento facial y autenticación de voz.
Los fraudes basados en deepfakes han provocado pérdidas sustanciales a particulares y organizaciones, con algunos casos de gran repercusión en los que se han invertido millones de dólares. La rápida propagación de la desinformación puede manipular la opinión pública o incluso influir en los resultados electorales, amenazando gravemente la estabilidad social y política.
¿Son ilegales los deepfakes?
Los aspectos legales que rodean a los deepfakes presentan una cuestión complicada y dinámica. En la actualidad, no existe en Estados Unidos ninguna ley federal exhaustiva que prohíba o regule explícitamente todas las formas de deepfakes. Sin embargo, ciertos usos de los deepfakes pueden ser ilegales según las leyes existentes, en particular cuando se utilizan con fines maliciosos como el fraude, la difamación o la pornografía sin consentimiento.
Varios estados han tomado medidas legislativas para abordar preocupaciones específicas relacionadas con los deepfakes. Por ejemplo, Texas y California han promulgado leyes que prohíben el uso de deepfakes para influir en las elecciones. Además, California, Georgia y Virginia han promulgado leyes que prohíben la creación y distribución de pornografía deepfake sin consentimiento. En España también se está empezando a legislar y regular los deepfakes, centrándose en sus aplicaciones más dañinas.
A nivel federal en Estados Unidos, aunque todavía está pendiente una legislación exhaustiva, hay esfuerzos en curso para abordar los retos que plantean los deepfakes. El Congreso de Estados Unidos está estudiando varios proyectos de ley, entre ellos el Deepfake Report Act y el Deepfakes Accountability Act, que pretenden mejorar la comprensión de la tecnología y proporcionar recursos legales a las víctimas. Los organismos encargados de hacer cumplir la ley también están trabajando en el desarrollo de herramientas y estrategias para detectar y combatir los usos maliciosos de los deepfakes, especialmente en áreas como la prevención del fraude y la seguridad electoral.
Ejemplos de deepfakes
Aunque muchos deepfakes se crean con fines de entretenimiento o educativos, ha habido varios ejemplos reales de deepfakes utilizados de forma maliciosa. He aquí algunos de los ejemplos más recientes.
Manipulación política del presidente Biden
A principios de 2024, surgió un deepfake de audio del presidente Biden, que hacía parecer que estaba haciendo declaraciones controvertidas sobre la seguridad nacional. Este incidente ejemplificó el potencial de los deepfakes para engañar al público y crear confusión durante un año electoral, suscitando preocupaciones sobre la integridad del discurso político.
Taylor Swift en el punto de mira
En 2024, surgieron vídeos deepfake protagonizados por la estrella del pop Taylor Swift, en los que aparecía en escenarios comprometidos e inventados. Este caso pone de relieve la continua vulnerabilidad de las celebridades a la tecnología deepfake, que puede utilizarse para crear contenidos perjudiciales que amenazan la reputación personal y la privacidad.
Fraude financiero en Hong Kong
Un importante caso de deepfake en Hong Kong afectó a un trabajador de finanzas que fue engañado para que transfiriera 39 millones de dólares tras ser engañado por impostores de deepfake que se hicieron pasar por su director financiero y sus colegas durante una videollamada. Este incidente subraya la creciente sofisticación de las estafas deepfake, en las que los delincuentes pueden hacerse pasar de forma convincente por figuras de confianza para ejecutar fraudes financieros a gran escala.
Campaña de sensibilización de Arizona Agenda
En marzo de 2024, la Arizona Agenda creó un deepfake de la candidata al Senado Kari Lake para concienciar sobre los peligros potenciales de los deepfakes en las próximas elecciones. Al utilizar intencionadamente un deepfake en un contexto político, la campaña pretendía educar a los votantes sobre los riesgos de la desinformación y la manipulación mediática durante procesos electorales críticos.
Fotos falsas de Donald Trump
A principios de marzo de 2024, circuló por las redes sociales un nuevo lote de fotos falsas que supuestamente mostraban a Donald Trump interactuando con votantes negros. Estas imágenes, generadas mediante el uso de servicios de IA como Midjourney, tenían probablemente la intención de manipular a la opinión pública y cortejar a los votantes negros, demostrando cómo la tecnología deepfake puede convertirse en un arma para obtener beneficios políticos.
Detección y mitigación de los riesgos de los deepfakes
A medida que la tecnología deepfake sigue evolucionando, las organizaciones deben adoptar estrategias integrales para detectar y mitigar los riesgos asociados. Uno de los enfoques más eficaces consiste en aprovechar las tecnologías avanzadas de detección impulsadas por IA y ML. Estas herramientas analizan exhaustivamente el contenido de audio y vídeo en busca de incoherencias sutiles que pueden ser imperceptibles para el ojo o el oído humano, lo que permite una rápida identificación de posibles deepfakes.
Los sistemas de detección impulsados por IA utilizan el reconocimiento de patrones para identificar anomalías en los medios, mientras que el análisis multimodal examina diversos elementos, incluidos los visuales, de audio y metadatos, para evaluar la autenticidad. Además, algunas soluciones emplean la tecnología blockchain para verificar el origen y la integridad de los archivos multimedia, lo que aumenta aún más la fiabilidad.
Para reforzar las defensas contra los deepfakes, las organizaciones deben aplicar una combinación de soluciones tecnológicas y buenas prácticas, entre las que se incluyen:
- Autenticación multifactor: Combine factores biométricos y de comportamiento con las contraseñas tradicionales para evitar la suplantación de identidad. Considere la posibilidad de utilizar un generador de contraseñas que le ayude a crear contraseñas fuertes y seguras.
- Capacitación de los empleados: Eduque al personal sobre los riesgos asociados a las falsificaciones profundas y sobre cómo identificar los contenidos manipulados, fomentando una cultura de vigilancia.
- Protocolos de verificación: Establezca procedimientos para confirmar la autenticidad de las comunicaciones sensibles, en particular las que impliquen transacciones financieras.
- Marcas de agua y firmas digitales: Utilice estas tecnologías en el contenido original para ayudar a verificar la autenticidad y disuadir la manipulación.
- Actualizaciones periódicas: Manténgase informado sobre las últimas técnicas y contramedidas de deepfake actualizando periódicamente el software de detección.
- Colaboración con expertos: Asóciese con empresas de ciberseguridad e instituciones académicas para acceder a tecnologías de detección e investigación de vanguardia.
- Planes de respuesta a incidentes: Desarrolle protocolos de respuesta a incidentes para gestionar los incidentes sospechosos de deepfake, incluyendo los pasos para la verificación, notificación y mitigación.
Al integrar estas avanzadas tecnologías de detección con sólidas prácticas organizativas, las organizaciones pueden reforzar significativamente sus defensas contra los riesgos que plantean los deepfakes.
Cómo puede ayudar Proofpoint
Proofpoint ofrece soluciones potentes para combatir la amenaza en evolución de los deepfakes y otros contenidos generados por IA utilizados en ataques de ingeniería social. Su enfoque múltiple se centra tanto en las defensas tecnológicas como en la concienciación de seguridad centrada en el ser humano:
- Protección avanzada del correo electrónico: Las soluciones de seguridad de correo electrónico de Proofpoint utilizan el aprendizaje automático para detectar y bloquear intentos de phishing sofisticados, incluidos los que pueden aprovechar la tecnología deepfake.
- Formación de concienciación sobre seguridad: Proofpoint proporciona programas de formación personalizables que educan a los empleados sobre las últimas tácticas de ingeniería social, incluyendo cómo identificar posibles deepfakes y contenido generado por IA.
- Inteligencia sobre amenazas emergentes: El equipo de investigación de amenazas de Proofpoint supervisa continuamente las amenazas emergentes -incluidas las que implican IA generativa- para actualizar sus capacidades de detección y proporcionar información oportuna a los clientes.
- Defensa contra amenazas multicapa: Proofpoint enfatiza la importancia de una estrategia de seguridad holística que combine soluciones tecnológicas con vigilancia humana para crear una defensa robusta contra las amenazas de ingeniería social en evolución.
Al aprovechar las soluciones y la experiencia de Proofpoint, las organizaciones pueden mejorar su resistencia contra los ataques impulsados por deepfake y otras tácticas de ingeniería social impulsadas por IA, garantizando un entorno digital más seguro para sus empleados y activos. Si desea más información, póngase en contacto con Proofpoint.