La IA en la sombra, también conocida por el término en inglés Shadow IA, es el uso de herramientas y aplicaciones de IA dentro de una organización sin el conocimiento y la autorización del departamento de TI. Los empleados utilizan estas herramientas por su cuenta para aumentar la eficiencia y abordar tareas urgentes. El resultado es un ecosistema de Shadow AI que opera más allá de la visibilidad del equipo de seguridad, mucho más peligroso que la TI en la sombra tradicional.

Mientras que la TI en la sombra (Shadow IT) se refiere al almacenamiento personal en la nube y las aplicaciones de mensajería no aprobadas, la IA en la sombra elude el control directo utilizando modelos de IA externos para analizar datos confidenciales de la organización y producir resultados altamente impredecibles y potencialmente perjudiciales.

Un informe de 2025 de Menlo, que realizó un seguimiento de cientos de miles de entradas de usuarios durante un mes, destacó los riesgos del uso no regulado de la IA por parte de los empleados. Se descubrió que el 68 % de los empleados utilizaba cuentas personales para acceder a herramientas de IA gratuitas como ChatGPT, y que el 57 % de ellos utilizaba datos confidenciales. También se demostró cómo los sistemas de IA se adaptan a las entradas de los usuarios y filtran datos confidenciales de la organización al público.

El uso de Shadow AI se amplificó con el auge de la tecnología de IA generativa a finales de 2022. La tecnología es muy accesible; la mayoría de las herramientas se basan en navegadores y están habilitadas para la nube. Los empleados también utilizan a diario productos SaaS integrados con IA. La presión sobre los empleados para que produzcan resultados rápidamente aumenta continuamente.

Las personas encuentran sus propias soluciones cuando la adopción oficial de la IA avanza lentamente a través de los canales de aprobación. Sigue existiendo una brecha entre las necesidades de los empleados y lo que ofrece el departamento de TI.

La formación en ciberseguridad empieza aquí

Iniciar una prueba gratuita

La prueba gratuita funciona de la siguiente manera:

  • Reúnase con nuestros expertos en ciberseguridad para evaluar su entorno e identificar su exposición a riesgos.
  • En un plazo de 24 horas y con una configuración mínima, desplegaremos nuestras soluciones durante 30 días.
  • ¡Conozca nuestra tecnología en acción!
  • Reciba un informe que identifica sus vulnerabilidades de seguridad para ayudarle a tomar medidas inmediatas frente a ataques de ciberseguridad.

Rellene este formulario para solicitar una reunión con nuestros expertos en ciberseguridad.

Un representante de Proofpoint se comunicará con usted en breve.

¿Por qué es importante Shadow AI?

Shadow AI crea puntos ciegos que ni siquiera los sistemas de seguridad más sofisticados pueden resolver. Los CISO tienen una superficie de ataque cada vez mayor, sin supervisión ni protección. Una de cada cinco vulneraciones en las organizaciones se atribuye a Shadow AI, y aquellas con una mayor prevalencia de infracciones de IA en la sombra tienen un coste medio de 670 000 dólares más que aquellas con niveles más bajos o sin Shadow AI, según IBM.

Los ingenieros que no completan la documentación requerida sobre el flujo de trabajo de la IA pierden la capacidad de controlar las vulnerabilidades del sistema, y el uso de sistemas de producción no probados y no validados gana terreno. Las deficiencias en el cumplimiento normativo se vuelven más problemáticas para los equipos de políticas, ya que los empleados ignoran los marcos de gobernanza existentes. La explosión de la IA generativa y la inversión en IA agencial impulsan este desafío.

Según el informe de Menlo, los sitios web de IA registraron un aumento del 50 % en el tráfico web entre febrero de 2024 y enero de 2025, con un total de 10 530 millones de visitas mensuales. La cultura de “traiga su propia IA” está en pleno apogeo, ya que más del 60 % de los usuarios confían en herramientas de IA personales y no gestionadas, en lugar de herramientas aprobadas por la empresa. Patrick Pushor, arquitecto sénior de soluciones de Acuvity, publicó recientemente: “Casi la mitad de las organizaciones esperan un incidente de Shadow AI en los próximos 12 meses”, una conclusión contundente del último informe de la empresa sobre el estado de la seguridad de la IA en 2025. Sin embargo, la supervisión de alto nivel nunca ha estado tan desconectada de la adopción de la IA por parte de los empleados.

Características y causas clave de la IA en la sombra

Shadow AI es evidente en los grandes modelos de lenguaje (LLM) públicos, como ChatGPT y Claude, pero también puede ocultarse a plena vista. Las funciones de IA integradas en las herramientas SaaS autorizadas también pueden activarse sin que el departamento de TI se dé cuenta. Por ejemplo, los equipos de marketing utilizan asistentes de redacción con IA para componer campañas completas. Los representantes de ventas utilizan herramientas de IA para automatizar los correos electrónicos de respuesta a los clientes. Los analistas financieros copian datos en chatbots para crear resúmenes. Este fenómeno es omnipresente y afecta a todos los departamentos y funciones, no solo a los equipos técnicos.

Las causas se pueden resumir en dos elementos: presión y acceso. Los empleados trabajan bajo presión para lograr más y hacerlo rápidamente, con menos recursos. Cuando los procesos internos para la aprobación de la IA avanzan a paso de tortuga o no dan ninguna respuesta, las personas buscan sus propios medios. La mayoría de las herramientas de IA generativa son de fácil acceso: solo se necesita un correo electrónico y un navegador web.

Además, muchas organizaciones carecen de políticas claras sobre las herramientas de IA, concretamente sobre lo que es aceptable, lo que no lo es y lo que está sancionado. Según la investigación de S&P Global, “Algo más de un tercio (36 %) tiene una política dedicada a la IA o una política de IA integrada en otras políticas de gobernanza”. La brecha entre lo que necesitan los empleados y lo que ofrece el sistema de gobernanza se vuelve cada vez mayor.

Riesgos relacionados con Shadow AI

La IA en la sombra crea una amenaza única y compleja en todos los pilares de la seguridad empresarial. Estos riesgos incluyen problemas inmediatos, como las vulneraciones de datos y su exposición, así como problemas duraderos relacionados con el cumplimiento normativo y operativos.

Fuga y exposición de datos

Los empleados copian y pegan datos confidenciales y privados en herramientas de IA no autorizadas, lo que expone esos datos y da lugar a una vulneración de la seguridad. Se ha observado que el 77 % de los empleados comparten información confidencial y privada con herramientas como ChatGPT. Cuando se producen incidentes de vulneración de la seguridad relacionados con Shadow AI, los hallazgos de IBM revelaron que, en el 65 % de los casos, se trata de información de identificación personal comprometida, y en el 40 % de los casos, se trata de propiedad intelectual expuesta.

Infracciones al cumplimiento de normativas

El uso no regulado de la IA crea lagunas en la gobernanza de datos, lo que puede poner en riesgo a una entidad en términos de cumplimiento de las leyes de privacidad de datos, como el RGPD, así como de las normas del sector. La mayoría de las organizaciones no controlan el flujo de datos confidenciales ni las herramientas que utilizan sus empleados. Este punto ciego hace que sea casi imposible demostrar el cumplimiento en una auditoría, así como responder a las solicitudes de los interesados.

Resultados de los modelos e integridad de las pruebas para la toma de decisiones

Las herramientas de IA no reguladas proporcionan datos sin restricciones, sesgados, falsos o inventados, que los empleados luego incorporan a su toma de decisiones. Los errores en los datos pueden comprometer las operaciones básicas a nivel empresarial. Los flujos no regulados crean una situación en la que los datos defectuosos y erróneos pueden circular entre las operaciones y no salir a la luz durante mucho tiempo.

Coste y riesgo operativo

Como se ha mencionado anteriormente, los incidentes de Shadow AI aumentan el coste de una vulneración de datos en 670 000 dólares. Las organizaciones alojan, sin saberlo, una media de 1200 solicitudes no oficiales que generan gastos duplicados, flujos de trabajo fragmentados y una mayor superficie de ataque. Las lagunas de gobernanza y control, o “áreas en la sombra”, se hacen más grandes y más complejas de gestionar con el tiempo.

Riesgos de seguridad y control de acceso

La identidad y el acceso no supervisados de Shadow AI suponen una vulnerabilidad ante las amenazas de seguridad. La organización media tiene 15 000 usuarios fantasma y, por su diseño, estas credenciales innecesarias e inactivas suponen una amenaza cuando se accede a ellas con herramientas no autorizadas. Los empleados que comparten contraseñas con asistentes de IA crean puertas traseras, y el tiempo medio para remediarlas es de 94 días.

Marcos y prácticas recomendadas para gestionar la IA en la sombra

Más allá de la simple detección de Shadow AI, su gestión requiere un enfoque bien planificado y alineado que equilibre la seguridad y la productividad. Las mejores estrategias brindan visibilidad sobre el uso de la IA, establecen marcos de gobernanza definibles, ofrecen las herramientas adecuadas y desarrollan políticas viables. La clave del éxito es tratar la gobernanza de la IA como un proceso continuo, en lugar de como un proyecto puntual.

Descubrimiento e inventario de las herramientas de IA en uso. No se puede gobernar lo que no se ve. Utilice la supervisión de la red, las puertas de enlace web seguras y las herramientas CASB para encontrar dominios de IA y enviar avisos a toda su red. Pregunte a los equipos qué herramientas utilizan y a qué datos acceden. Cree un inventario vivo que relacione cada herramienta con las unidades de negocio, los elementos de datos y los casos de uso específicos.

Evaluación y priorización de riesgos. No toda la IA en la sombra plantea el mismo riesgo. Clasifique las herramientas que ha mapeado como inaceptables, de alto riesgo, de riesgo moderado o de bajo riesgo, teniendo en cuenta la sensibilidad de los datos, la exposición normativa y el impacto empresarial. Un mapa de riesgos mostrará qué casos entran en la zona de peligro y merecen una atención inmediata, lo que le permitirá dirigir sus esfuerzos primero a las amenazas más críticas.

Desarrollo y aplicación de políticas. Defina las herramientas de IA aprobadas, los procedimientos para solicitar nuevas herramientas y las directrices para gestionar los datos confidenciales. Implemente barreras técnicas donde se realice el trabajo real. Controle el acceso y deniegue herramientas arbitrarias utilizando listas de proxy permitidas y denegadas. Utilice herramientas de prevención de pérdida de datos para evitar la carga de datos en herramientas no aprobadas y proporcione alternativas de enrutamiento seguras a los modelos aprobados. Las políticas deben promover la innovación.

Formación y cambio cultural. Shadow AI suele ser una ignorancia benigna. Proteja su organización con formación específica para cada función utilizando escenarios reales relacionados con el trabajo. Anime a los equipos a compartir las herramientas de IA que utilizan y permítales hacerlo sin temor a represalias. Cuando los líderes demuestran de forma coherente la cultura deseada, el cumplimiento de las políticas está casi garantizado.

Integración de la ciberseguridad. La gobernanza de la IA debe interactuar con sus programas existentes de protección de datos, control de acceso y riesgos internos. Asigne responsabilidades interfuncionales que abarquen las áreas de TI, seguridad, legal, finanzas y RR. HH. La supervisión en tiempo real del uso de la IA y las grandes transferencias de datos a herramientas de IA deben marcarse como anómalas. Las auditorías rutinarias revelan patrones de uso que ayudan a perfeccionar la gobernanza y a detectar las deficiencias de sus ofertas autorizadas.

¿Quién debe ser responsable de la gobernanza de Shadow AI?

Ningún equipo puede asumir la responsabilidad exclusiva de la gobernanza de la IA en la sombra. Los riesgos traspasan las fronteras de la seguridad, el cumplimiento normativo, la infraestructura y las operaciones de negocio. Las organizaciones exitosas asignan estas responsabilidades fragmentadas y fomentan la colaboración entre departamentos.

La función de supervisión de riesgos se asigna a los equipos de seguridad y CISO. Estos detectan las amenazas potenciales, evalúan el nivel de exposición e identifican qué usos de la IA crean vulnerabilidades inaceptables. Deben supervisar el uso de IA no autorizada y verificar el equilibrio con otros colaboradores en lo que respecta a las necesidades empresariales y la seguridad ante incidentes. La gobernanza se facilita mejor cuando los responsables de seguridad son conductos de alto nivel, no obstáculos.

La arquitectura y la implementación técnica son responsabilidad de los equipos de TI e ingeniería. Comprueban si las herramientas de IA tienen fallos de seguridad y crean herramientas de IA seguras que los empleados encuentran útiles y quieren utilizar. Son responsables de los registros de IA, los mercados y la aplicación del uso y el acceso políticos de la IA en las capas de red y de aplicación. Mientras tanto, los equipos de CISO se aseguran de que la gobernanza de la IA se mantenga alineada con el RGPD, los estándares del sector y las obligaciones contractuales. Evalúan las prácticas de manejo de datos, supervisan los acuerdos con los proveedores y facilitan las auditorías de la organización.

Los equipos de cumplimiento normativo y jurídico traducen los requisitos de cumplimiento normativo en políticas prácticas y aplicables. Cuando los empleados comprenden por qué se aplican determinadas políticas, junto con herramientas autorizadas de alta calidad, el cumplimiento de las políticas se convierte en algo automático, no coercitivo. Los líderes deben dar ejemplo de este comportamiento utilizando las herramientas adecuadas.

Esta cultura de cumplimiento impulsada por el liderazgo requiere una gobernanza estructurada para mantener el impulso, por lo que es fundamental contar con canales de retroalimentación interfuncionales incorporados en las disciplinas pertinentes. Las organizaciones deben reunirse con frecuencia para revisar las políticas, evaluar las herramientas recién desarrolladas y mitigar los riesgos que surjan desde la última reunión. La gobernanza colaborativa mantiene a los equipos centrados en lo que más importa, evitando tanto las brechas de seguridad como la burocracia innecesaria.

Desafíos en la implementación de la gobernanza de la IA en la sombra

Incluso las organizaciones que están firmemente comprometidas con la gobernanza de la IA se enfrentan a importantes obstáculos. Los ciclos de políticas tardan demasiado en aplicarse, dada la rapidez con la que cambia el panorama. La mayoría de los controles de TI son demasiado básicos para abordar los riesgos específicos de la IA.

  • Rápida evolución de las herramientas de IA. Las capacidades de la IA son tan avanzadas que cada semana aparecen nuevas herramientas y las plataformas existentes añaden funciones de IA sin previo aviso. Antes de que el equipo de seguridad pueda evaluar una herramienta, los empleados ya tienen acceso a tres herramientas no verificadas y no tienen ningún incentivo para dejar de utilizarlas.
  • Desafío a las políticas. Los empleados consideran que la gobernanza es un obstáculo y la abandonan cuando los procesos de aprobación tardan semanas, mientras que las herramientas de IA gratuitas son accesibles al instante. Cuando las herramientas proporcionadas oficialmente carecen de las capacidades y la comodidad que ofrecen las herramientas de consumo, la adopción en la sombra se vuelve inevitable.
  • Dificultad para supervisar qué herramientas se están utilizando. La IA funciona de forma diferente al SaaS tradicional. La IA puede integrarse en plataformas aprobadas o puede funcionar localmente sin ninguna firma de red. La mayoría de las organizaciones no cuentan con los medios técnicos para rastrear las actividades de IA, lo que deja a los equipos de seguridad a ciegas.
  • La necesidad de políticas más específicas para la IA. La mayoría de las organizaciones carecen de políticas que aborden los riesgos específicos de la IA, como los resultados de los modelos, la inyección de comandos o el entrenamiento de datos. Las políticas generales de TI no recogen las preocupaciones éticas y de cumplimiento normativo específicas que plantea la IA. Si las políticas son demasiado restrictivas, se producirá una adopción en la sombra, y si son demasiado laxas, la organización corre el riesgo de quedar expuesta.

Herramientas de detección de Shadow AI

Para detectar Shadow AI, es importante contar con múltiples capas que incluyan herramientas para analizar el tráfico de red, las aplicaciones, las actividades de los usuarios y el movimiento de datos. No existe un método único que pueda detectarlo todo. Las herramientas más exitosas utilizan diversas técnicas para comprender completamente cómo y dónde surgen las herramientas de IA y cómo las utilizan los empleados.

Plataformas de detección del uso de IA

Estas herramientas se especializan en mantener inventarios de las aplicaciones de IA que utilizan los empleados y descubren entornos empresariales que se han democratizado con estas herramientas. Mediante el aprendizaje automático, estas herramientas detectan servicios de IA consolidados, como ChatGPT, Gemini y Claude, así como otros de nuevo desarrollo que otras herramientas de detección tradicionales pasan por alto. Las plataformas de detección examinan las transacciones y los informes financieros, el uso del navegador y el tráfico de red para analizar el alcance del uso de la IA.

Agentes de seguridad de acceso a la nube (CASB)

Los CASB mejoran la supervisión tradicional de las aplicaciones SaaS al añadir funciones de gobernanza de la IA. Las soluciones CASB ofrecen una supervisión en tiempo real del uso de los servicios de IA por parte de los empleados y pueden aplicar políticas contextuales basadas en IA. Las soluciones CASB más recientes proporcionan una evaluación de riesgos basada en la IA de los datos manejados y del tráfico de IA que entra y sale de la empresa, mediante una inspección profunda de los paquetes.

Sistemas de prevención de pérdida de datos (DLP)

Las herramientas DLP con IA integrada reconocen automáticamente cuando los empleados comparten información confidencial con herramientas de IA no autorizadas. Analizan el contenido a nivel de comando para detectar entradas escritas, cargas de archivos y pegados del portapapeles con el fin de detectar el intercambio de documentos y comprobar si hay chatbots importantes, como ChatGPT, Copilot, Claude, Gemini y Perplexity. Las soluciones DLP avanzadas cuentan con un servicio sensible al contexto que reduce aún más los falsos positivos y explica los motivos del movimiento de datos.

Supervisión de la gestión de identidades y accesos (IAM)

Los sistemas de IAM supervisan los patrones de uso y uso compartido de credenciales para ver la autenticación de los empleados en los servicios de IA y realizar un seguimiento del uso compartido de documentos con IA. La IAM proactiva incluso comprueba el envío controlado a nivel de archivo, gestiona el control de acceso e informa sobre las cuentas inactivas. Los sistemas SIEM integran la gestión de identidades específica y el uso predictivo de la IA. Se dispone de alertas en tiempo real de los umbrales de uso de la IA, seguidos dinámicamente para las exportaciones de documentos y los deslizamientos de datos significativos.

Plataformas de análisis de comportamiento

Estos sistemas utilizan el aprendizaje automático para establecer bases de referencia para el uso normal de la IA e identificar anomalías que indiquen posibles infracciones de las políticas. Asignan puntuaciones de riesgo de comportamiento a los usuarios en función de sus patrones de interacción con la IA y pueden predecir qué empleados son propensos a hacer un uso indebido de las herramientas de IA con datos confidenciales. Las plataformas avanzadas realizan perfiles psicológicos para comprender no solo lo que hacen los usuarios con la IA, sino también por qué lo hacen. Los análisis de comportamiento se vuelven más precisos con el tiempo, ya que aprenden continuamente de los nuevos patrones.

Herramientas de análisis del tráfico de red

Incluso cuando las aplicaciones cifran sus comunicaciones, las soluciones de supervisión de la red pueden identificar el uso de la IA reconociendo patrones en el tráfico. Las herramientas localizan las huellas de las aplicaciones de IA, supervisan el uso del ancho de banda y detectan volúmenes anormales de transferencias de datos que sugieren un uso indebido de las herramientas para filtrar datos. Las plataformas de acceso a la red de confianza cero aplican políticas de verificación a cada interacción con la IA, independientemente de la ubicación del usuario o del dispositivo. Este enfoque evita la filtración de datos a través de los canales de IA, al tiempo que mantiene la experiencia del usuario.

Preguntas frecuentes

¿Cómo puedo saber si mi empresa tiene un problema de IA en la sombra?

Para identificar si su empresa tiene problemas de Shadow AI, primero busque patrones como accesos extraños a los datos, aumentos inexplicables del tráfico en la nube y resultados de IA producidos fuera de las herramientas autorizadas. Dado que Shadow AI opera detrás del tráfico cifrado del navegador, es posible que las herramientas de seguridad tradicionales no la detecten y que se requieran herramientas de detección especializadas para comprender mejor el panorama. La probabilidad de que se adopte Shadow AI aumenta si su empresa no cuenta con políticas formales en materia de IA o si su proceso de aprobación de TI es burocrático y lento.

¿Qué preguntas debe plantearse un CISO sobre Shadow AI?

Proponga una secuencia que comience con la visibilidad: ¿A qué herramientas de IA acceden los empleados y cuáles son los datos que introducen? A continuación, pase a la gobernanza: ¿Disponemos de políticas inequívocas sobre el uso aceptable de la IA, la supervisión de la adopción de nuevas herramientas y los medios técnicos para hacer cumplir dichas políticas? Y, por último, pregunte sobre el riesgo: ¿Podemos supervisar las actividades de IA para una auditoría de cumplimiento y hemos evaluado el impacto potencial de una vulneración de Shadow AI?

¿Cuál es el primer paso para controlar Shadow AI?

El primer paso para controlar la Shadow AI es la visibilidad obtenida a través del descubrimiento. Solo entonces podrá aplicar las políticas de forma eficaz. Supervise el tráfico de red relacionado con la IA e implemente actividades de inventario de Shadow AI para evaluar las herramientas de IA que utilizan los empleados. Evalúe los registros de autenticación de “Iniciar sesión con Google” y las integraciones de SSO con servicios que la organización no reconoce. Hacer un inventario de Shadow AI lleva tiempo, pero es el primer paso crucial.

¿Cómo afecta la IA en la sombra al cumplimiento normativo y a la protección de datos?

El uso no regulado de Shadow AI hace que la gobernanza tradicional de los datos sea muy ineficaz. Los empleados que introducen datos confidenciales en herramientas cuyo uso no está aprobado crean una exposición desconocida al flujo y al uso de los datos. Los datos pueden entonces incumplir las políticas de retención y eliminación del RGPD o de diversas normas del sector. Además, los riesgos de filtración de datos de IA dentro de la UE están muy regulados, con sanciones del 4 % de los ingresos globales. Las organizaciones sanitarias también están muy reguladas en lo que respecta a los riesgos de vulneraciones de datos en virtud del cumplimiento de la HIPAA.

Cómo puede ayudar Proofpoint

Proofpoint proporciona a las organizaciones la visibilidad y el control necesarios para hacer frente a la Shadow AI. Las soluciones de Proofpoint le ayudan a descubrir tanto la IA autorizada como la no autorizada en su entorno, supervisando los flujos de datos para bloquear posibles filtraciones. La plataforma correlaciona la actividad de la IA con las señales de amenazas internas, detectando los riesgos antes de que se conviertan en incidentes graves. Descubra cómo Proofpoint permite el descubrimiento, la gobernanza y la protección del uso no autorizado de la IA, al tiempo que promueve la innovación segura en su organización. Póngase en contacto con Proofpoint hoy mismo.

¿Listo para probar Proofpoint?

Empiece con una versión de evaluación gratuita de Proofpoint.