La IA está transformando de forma profunda el panorama de las amenazas internas, al introducir nuevos riesgos, pero también nuevas oportunidades. Los programas tradicionales de gestión de amenazas internas se han diseñado en torno al comportamiento humano: motivación, oportunidad, acceso y controles. La IA amplifica cada una de estas dimensiones, introduciendo nuevas formas de riesgo, nuevos indicios que detectar y nuevas responsabilidades transversales que gestionar. En este contexto, no es de extrañar que los riesgos internos constituyan una preocupación importante para los profesionales de la seguridad de todo el mundo.
Aquí hay cinco predicciones sobre cómo la IA se convertirá en la próxima categoría de amenazas internas. Destacan los casos de uso clave en 2026 y describen cómo hacer evolucionar sus programas de detección y gobierno para mantener el ritmo.
Predicción n.º 1: la IA redefine las amenazas internas
Durante años, Proofpoint ha transformado la forma en que las organizaciones comprenden y mitigan las amenazas internas, centrándose no solo en los sistemas y los datos, sino también en las personas. Una mayor visibilidad de los comportamientos ha permitido a los equipos de gestión de riesgos internos ir más allá de los enfoques tradicionales centrados en los archivos. Con Proofpoint, también pueden examinar la intención, la motivación y el contexto humanos en correos electrónicos, la nube, plataformas de colaboración y aplicaciones empresariales.
Ahora nos encontramos en los albores de una nueva era en la que los seres humanos trabajan junto a asistentes y agentes de IA. Este entorno de trabajo agéntico emergente permite importantes mejoras en productividad y eficacia. Sin embargo, también introducen nuevas dimensiones de amenazas internas para las que las organizaciones deben estar preparadas.
La IA es mucho más que una herramienta adicional. Modifica el comportamiento de los usuarios internos, la forma en que surgen los riesgos y el tipo de usos indebidos que se producen.
La IA amplificará los comportamientos accidentales, imprudentes y oportunistas de los usuarios internos.
El fácil acceso a herramientas de IA proporciona a los usuarios internos negligentes nuevas formas de generar riesgos de seguridad, tanto de manera intencionada como involuntaria. Los asistentes de IA basados en grandes modelos de lenguaje (LLM), como Copilot, ChatGPT y Gemini, facilitan la exposición de información sensible por parte de los usuarios. Esto puede ocurrir cuando los usuarios comparten involuntariamente información sensible a través de prompts en lenguaje natural, y cuando los asistentes de IA resumen el contenido interno o extraen información de fuentes restringidas.
La disponibilidad de herramientas de IA para los empleados puede favorecer la normalización de comportamientos imprudentes o del uso de atajos. Los empleados pueden utilizar los resultados de la IA para fines personales, incluso sin intención de causar daño. Por lo tanto, usuarios internos que antes presentaban un perfil de bajo riesgo podrían llegar a provocar, de forma involuntaria o por negligencia, situaciones de alto impacto.
La IA facilitará la tarea de los usuarios internos maliciosos gracias a la ingeniería de prompts y a consejos técnicos.
Los usuarios internos maliciosos, motivados por intereses personales y ahora respaldados por la IA, tendrán más oportunidades de causar daño. La IA puede guiar a los internos paso a paso sobre cómo escalar privilegios, manipular sistemas, eludir la supervisión o extraer información. Los ciberdelincuentes, tanto internos como externos, pueden utilizar la ingeniería de prompts para incitar a los sistemas de IA a revelar flujos de trabajo sensibles o ayudarles a ejecutar ataques de gran envergadura.
Además, los internos maliciosos ya no necesitan una profunda experiencia técnica. La IA elimina la barrera técnica al ayudar a los usuarios a realizar acciones que antes requerían la escritura de scripts, conocimientos de sistemas o funciones de administración. Los empleados sin conocimientos técnicos ahora pueden extraer datos sin tener que manipular un archivo, simplemente pidiendo a la IA que resuma, extraiga, transforme o reformule información sensible.
Los agentes de IA autónomos se convertirán en el nuevo tipo de amenazas internas
Tradicionalmente, un usuario interno se define como una persona en una posición de confianza. Cuando un usuario interno abusa de su acceso autorizado para perjudicar a la empresa, se convierte en una amenaza. Esto plantea la siguiente pregunta: ¿los agentes de IA autónomos (que tienen acceso a datos y sistemas sensibles) también pueden constituir amenazas internas? La respuesta es sí. Los agentes autónomos pueden abusar de su acceso para perjudicar a la organización, ya sea de forma intencionada o no.
A medida que las empresas adoptan agentes autónomos capaces de navegar, escribir código y actuar en varios sistemas, la autonomía se convierte en un importante multiplicador de riesgos. Los agentes pueden agrupar tareas y acceder a sistemas fuera de sus perímetros previstos. Si estos sistemas están mal configurados, los agentes pueden activar flujos de trabajo que exponen datos sensibles o debilitan los controles de seguridad. En escenarios de ciberdelincuencia, el comportamiento de los agentes puede manipularse para obtener resultados no autorizados.
Predicción n.º 2: los incidentes de origen interno aumentan en caso de turbulencias en la empresa
La captación de talento, el espionaje industrial, las fusiones y adquisiciones y las cesiones crean situaciones de gran presión. En estos momentos, se puede incentivar o reclutar a los internos para que roben datos, propiedad intelectual, listas de clientes o inteligencia estratégica. A medida que las empresas compiten ferozmente por atraer talento y se someten a constantes reestructuraciones, las fluctuaciones en la lealtad, los conflictos de intereses y la colusión discreta se convierten en factores determinantes de los incidentes de origen interno.
Estas son las razones por las que los incidentes de origen interno aumentarán en 2026:
- La captación agresiva de talento incita a los empleados a proporcionar o apropiarse de datos sensibles como medio de presión.
- El espionaje industrial se vuelve más fácil, ya que la IA ayuda a los usuarios internos a estudiar a la competencia, imitar solicitudes legítimas u ocultar sus actividades. Los casos de espionaje industrial acapararon titulares en 2025 y seguirán haciéndolo en 2026.
- Las fusiones, adquisiciones y cesiones generan patrones de acceso caóticos, cuentas transitorias, propiedad de los sistemas poco clara y empleados estresados, condiciones propicias para usos indebidos.
Predicción n.º 3: la identidad, las señales humanas y los datos telemétricos técnicos se fusionan en uno solo.
En 2026, las empresas dejarán de tratar las señales humanas, los datos de identidad y los eventos técnicos como flujos separados. La próxima evolución de la gestión de riesgos internos depende de la conexión entre estas áreas, ya que el riesgo real rara vez se manifiesta en una sola dimensión.
- Los indicadores de comportamiento ayudan a revelar la motivación: la formulación de quejas, el aumento de las tensiones, las señales de salida, las presiones financieras, las señales de represalias, la coacción y los cambios ideológicos dejan indicios sutiles. Estas señales tempranas suelen aparecer en los patrones de comunicación o en los prompts de IA. Proporcionan un contexto importante para comprender por qué alguien podría actuar de determinada manera.
- La identidad y el contexto de RR. HH. explican por qué actúan los usuarios internos: las señales incluyen situaciones de excedencia o baja temporal, inclusión en un plan de mejora del rendimiento, la disminución del rendimiento, la insatisfacción durante los períodos de incentivos, las actualizaciones de las verificaciones de antecedentes, el nivel de acceso y la etapa del ciclo de vida. Esta información centrada en la identidad ayuda a las empresas a comprender por qué y cuándo una persona es más propensa a adoptar comportamientos inapropiados.
- Los datos telemétricos técnicos muestran cómo actúan los usuarios internos: la información sobre la preparación de archivos, los intentos de filtración, el uso indebido de privilegios, los patrones de acceso anómalos, la manipulación de prompts de IA y los intentos de eludir controles se suman a las señales de comportamiento para ofrecer una visión general de lo que un usuario interno se dispone a hacer.
- Una visión unificada proporciona alertas tempranas: cuando estos flujos convergen, crean una señal de riesgo interna única que avisa a los equipos de seguridad de las amenazas emergentes semanas antes de que se produzca una pérdida de datos. Una vista combinada proporciona a los equipos la motivación, el contexto, el acceso y el comportamiento reunidos en un solo lugar. Permite una intervención más temprana y controles más precisos.
Predicción n.º 4: los ciclos de clasificación y respuesta a los riesgos internos se dinamizan considerablemente
En 2026, la IA no solo optimizará la detección, sino que también transformará la forma en que las organizaciones analizan, priorizan y corrigen los riesgos internos. La IA se convierte en un multiplicador de fuerza para la clasificación de incidentes, transformando las señales dispersas en información clara y acelerando la toma de decisiones en los departamentos de RR. HH., jurídico y de seguridad.
- Clasificación de alertas mejorada por IA: la IA ya correlaciona señales de bajo nivel, como fallos repetidos de inicio de sesión o intentos de acceso inusuales, para identificar incidentes de alta prioridad. Esto reduce la información superflua y permite a los analistas centrarse en los eventos más importantes.
- Resúmenes instantáneos de las investigaciones: las herramientas de IA generativa, como Microsoft Security Copilot, pueden procesar grandes volúmenes de datos telemétricos y devolver resúmenes claros en lenguaje natural con los siguientes pasos recomendados. Los incidentes que antes requerían horas de verificación manual ahora se pueden comprender en cuestión de minutos.
- Investigaciones agénticas automatizadas: los agentes de IA pueden recopilar de forma autónoma alertas relacionadas, establecer cronologías, correlacionar los comportamientos de los usuarios entre sistemas y sugerir opciones de contención. Actúan entonces como investigadores digitales siempre activos, respaldados por la supervisión humana.
- Puntuación predictiva de riesgos: en lugar de reaccionar ante los incidentes, la IA puede empezar a preverlos. Los modelos predictivos, que ya se utilizan en la gestión de riesgos empresariales y en el sector sanitario, identifican patrones de comportamiento y vías de escalamiento en una fase temprana. De este modo, los equipos tienen tiempo para intervenir antes de que las situaciones se conviertan en violaciones de la seguridad.
- Estrategias y orquestación generadas por IA: la IA ahora puede desarrollar o recomendar estrategias de respuesta basadas en datos contextuales. Esto acelera los flujos de trabajo de orquestación, automatización y respuesta a incidentes de seguridad (SOAR) y reduce los esfuerzos manuales.
Predicción n.º 5: la complejidad de la IA refuerza la propiedad transversal.
La gestión de las amenazas internas suele ser un trabajo en equipo, y por buenas razones. Las amenazas internas pueden afectar a muchas partes de una organización. Por lo tanto, los comités directivos o los grupos de trabajo transversales son esenciales. Estos equipos suelen incluir los departamentos jurídico, de RR. HH., de gestión del cumplimiento y de riesgos, y de confidencialidad. A medida que se acelera la adopción de la IA, surgen nuevos retos complejos que requieren una estrecha colaboración. La IA a escala empresarial también requiere directrices claras, políticas de uso aceptable, interpretaciones éticas y normas de privacidad. Para resolver estos problemas, es necesario adoptar un enfoque coordinado a nivel de toda la empresa.
A principios de 2026, los equipos de gestión de riesgos internos deben centrarse en las siguientes acciones:
- Reforzar el mandato transversal y aumentar la visibilidad. Considere la posibilidad de crear o ampliar su programa actual para incluir un consejo de riesgos internos y de IA. Este grupo puede establecer objetivos comunes, examinar incidentes y elaborar normas para la gestión de los riesgos internos relacionados con la IA.
- Aclarar la propiedad responsable. Defina quién aprueba los casos de uso de la IA, quién define el alcance de las autorizaciones de los agentes, quién se encarga de las evaluaciones éticas y quién tiene la autoridad para desactivar agentes.
- Establecer límites claros, especialmente en materia de ética. La IA desdibuja la autoría y la intención, y pondrá en cuestión las normas tradicionales. Las organizaciones deben establecer principios para una IA responsable, el uso consentido de los datos y la transparencia. Estos principios deben aplicarse mediante controles técnicos, como políticas, control de acceso basado en roles y supervisión de las actividades de los usuarios.
Conclusión
La adopción de la IA, los cambios organizativos y la dinámica cambiante de los empleados transforman los riesgos internos.. La estrategia tradicional ya no es válida: la IA amplifica ahora la intención humana, permite nuevas formas de abuso e introduce agentes autónomos en la ecuación de riesgos.
Para mantenerse un paso por delante, las organizaciones deben unificar las señales de identidad, comportamiento y técnicas. También deben adoptar una detección y respuesta basadas en la IA y reforzar el gobierno transversal. Las empresas que actúen ahora mitigarán las amenazas emergentes y sentarán bases sólidas para el futuro del trabajo.
Más información
- Descargue nuestra guía completa sobre la seguridad y el gobierno de la IA en las empresas modernas.
- Lea nuestro resumen de la solución para comprender cómo Proofpoint permite una adopción segura de las herramientas de IA generativa.