Seguridad de la IA agéntica
Garantice el uso seguro de la IA por parte de los agentes
Despliegue con total confianza la estrategia de adopción de la IA en su empresa.
Garantice con total confianza el despliegue de los agentes en su empresa
Implemente y utilice agentes autónomos garantizando al mismo tiempo su total integridad y responsabilidad.
Cada acción del agente se evalúa en función de la intención del usuario, lo que permite detectar infracciones del ámbito de aplicación incluso cuando los permisos son válidos.
Las transacciones se reconstruyen íntegramente, desde la solicitud del usuario hasta el razonamiento del agente y la llamada a la herramienta, y todo ello se vincula al usuario original.
La observabilidad y la aplicación de las políticas se extienden a todos los despliegues de agentes desde una única plataforma.
Los agentes autónomos actúan en nombre de los usuarios, independientemente de si su equipo de seguridad está al corriente de ello o no
Los agentes autónomos pueden interactuar a través de distintos canales, como el correo electrónico, el almacenamiento en la nube, los repositorios de código y las bases de datos, todo ello mediante API, el protocolo MCP (Model Context Protocol) o integraciones personalizadas. Los agentes desplegados sin que el equipo de seguridad lo sepa (Shadow IA) tienen acceso permanente a datos sensibles en todas las aplicaciones conectadas y en las integraciones posteriores. Incluso cuando los agentes son conocidos y están autorizados, los sistemas de seguridad tradicionales no pueden verificar si cada acción de un agente se corresponde efectivamente con la tarea que se le ha encomendado.
Por eso es fundamental la integridad de los agentes. Sin poder garantizar la coherencia entre lo que los empleados pueden hacer, lo que deberían hacer y lo que realmente hacen, las organizaciones se enfrentan a riesgos cada vez mayores, entre otros:
- Rutas de acceso de larga duración y sin supervisión creadas por agentes de IA no autorizados
- Acciones que van más allá de la intención del usuario aunque hayan superado las comprobaciones de permisos
- Procesos de toma de decisiones poco transparentes que limitan el control y la confianza
- Mayor exposición impulsada por las distintas herramientas, API y servidores MCP que utiliza el agente
Despliegue a gran escala agentes autónomos que pueda auditar y controlar, y en los que pueda confiar
Descubrimiento de agentes y de servidores MCP
Descubra los agentes autónomos, ya sean personalizados o gestionados, sus cadenas de herramientas, sus conexiones a los servidores MCP y sus servicios externos. Siga la ejecución desde el agente hasta el servidor MCP, pasando por la herramienta, y amplíe el inventario a la infraestructura utilizada por los agentes.
Observabilidad en tiempo de ejecución
Recopile datos de telemetría sobre el comportamiento en el marco de flujos de trabajo de varias etapas, con una visibilidad correlacionada de las rutas de acceso de los agentes, las herramientas y los servidores MCP. Realice un seguimiento de cómo evoluciona el contexto de ejecución durante las transferencias, incluidos los sistemas multiagente.
Control de acceso basado en la intención (IBAC)
Supervise lo que un usuario solicita a un agente y evalúe las acciones posteriores destinadas a atender dicha solicitud. Detecta los casos en los que las acciones de un agente exceden el alcance de la tarea, incluso cuando se han verificado correctamente todas las autorizaciones.
Gobierno del MCP
Aplique la autenticación y la inspección de contenido en el perímetro del MCP para todas las conexiones de las herramientas. Controle los datos que circulan por las conexiones MCP y las acciones autorizadas. Ayude a los equipos de seguridad a gestionar la capa de protocolo, desde donde los agentes acceden a los datos y a las aplicaciones.
Visibilidad de la cadena de suministro de la IA y evaluación de riesgos
Identifique las herramientas externas, los servicios de terceros, las API y los servidores MCP que utilizan los agentes, y mantenga un registro actualizado. Evalúe la postura de seguridad de cada nodo de dependencia para mantener visible y bajo control la cadena de suministro de la IA.
Detección de anomalías en el comportamiento
Establezca un perfil de referencia del comportamiento de los agentes e identifique las desviaciones (como la ampliación del ámbito de actuación, los abusos y los accesos inusuales) que las reglas estáticas o la alineación con las intenciones podrían no detectar. Identifique las actividades que se desvían de las normas establecidas.
Análisis forense y auditoría justificable
Reconstruya las cadenas a partir de las solicitudes de los usuarios, teniendo en cuenta el razonamiento de los agentes, el uso de herramientas y los resultados. Asigne cada paso al usuario original teniendo en cuenta el contexto de seguridad. Establezca pistas de auditoría completas y fiables para el gobierno, el cumplimiento normativo y la respuesta a incidentes.
Explorar recursos relacionados
Resolver lo irresoluble
Descubra los modelos de detección de inyección de prompts y de "jailbreak" de Proofpoint
PREGUNTAS FRECUENTES
-
¿Por qué las empresas necesitan garantizar la seguridad de la IA agéntica para sus agentes autónomos?
Las empresas deben garantizar la seguridad de la IA agéntica, ya que los agentes autónomos pueden realizar acciones independientes en todos los sistemas y los sistemas de seguridad tradicionales no son capaces de verificar si dichas acciones se ajustan al objetivo inicial del agente. Estos agentes operan en entornos de correo electrónico, almacenamiento cloud, CRM, herramientas de desarrollo y bases de datos internas, a menudo a través de API directas o conexiones MCP. Esto genera rutas de acceso persistentes de las que los equipos de seguridad no siempre tienen conocimiento. Estas son algunas de las principales razones por las que las empresas deben proteger la seguridad de la IA agéntica:Las empresas deben garantizar la seguridad de la IA agéntica, ya que los agentes autónomos pueden realizar acciones independientes en todos los sistemas y los sistemas de seguridad tradicionales no son capaces de verificar si dichas acciones se ajustan al objetivo inicial del agente. Estos agentes operan en entornos de correo electrónico, almacenamiento cloud, CRM, herramientas de desarrollo y bases de datos internas, a menudo a través de API directas o conexiones MCP. Esto genera rutas de acceso persistentes de las que los equipos de seguridad no siempre tienen conocimiento.
Estas son algunas de las principales razones por las que las empresas deben proteger la IA agéntica:
- Despliegue de agentes de IA no autorizados (Shadow IA): los agentes pueden crear o iniciar sesión con cuentas de usuario sin ningún control de seguridad, y se les pueden otorgar permisos amplios y de larga duración.
- Comportamientos no verificables de los agentes: incluso cuando están autorizados, los agentes pueden tomar decisiones que no guardan relación con las tareas que se les han encomendado, eludiendo así los límites establecidos.
- Ampliación de la superficie de ataque: cada herramienta, API y servidor MCP conectado a un agente se integra en la cadena de suministro de IA de la empresa.
- Requisitos normativos y de supervisión: las organizaciones deben demostrar que el comportamiento de la IA está bajo control y es auditable, a medida que evolucionan las normas de gobierno.
-
¿Qué riesgos plantean los agentes de IA autónomos en los sistemas empresariales?
Los agentes de IA autónomos entrañan riesgos, ya que actúan de forma independiente en diversas aplicaciones y pueden llevar a cabo acciones que van más allá de la intención del usuario, del alcance autorizado o de los flujos de trabajo previstos. Dado que los modelos de IA agéntica razonan y funcionan siguiendo planes de varias etapas, puede resultar difícil seguir o limitar sus procesos de toma de decisiones en tiempo real. Los principales riesgos son los siguientes:Los agentes de IA autónomos entrañan riesgos, ya que actúan de forma independiente en diversas aplicaciones y pueden llevar a cabo acciones que van más allá de la intención del usuario, del alcance autorizado o de los flujos de trabajo previstos. Dado que los modelos de IA agéntica razonan y funcionan siguiendo planes de varias etapas, puede resultar difícil seguir o limitar sus procesos de toma de decisiones en tiempo real.
Los principales riesgos son los siguientes:
- "Desviación" del alcance: puede ocurrir que algunos agentes realicen acciones que no guardan relación con la tarea que se les ha encomendado, aunque cumplan todos los controles de autorización.
- Vías de acceso sin supervisión: Los agentes suelen conectarse a herramientas, API y servidores MCP que generan flujos de datos ocultos y privilegios persistentes.
- Vulnerabilidades de la cadena de suministro de la IA: los servicios externos y las integraciones de terceros pueden crear nuevas superficies de ataque y nuevos riesgos relacionados con las dependencias.
- Desviación del comportamiento: con el paso del tiempo, los agentes pueden desviarse de las normas de conducta establecidas de una forma que los controles manuales de las normas no permiten detectar.
- Falta de transparencia en materia de investigación digital: sin datos de telemetría especializados, las organizaciones no pueden rastrear cómo un agente llegó a una decisión o tomó una medida.
-
¿Qué es la integridad de los agentes y por qué es fundamental para el gobierno de la IA?
La integridad de los agentes garantiza que las autorizaciones, el objetivo previsto y el comportamiento real de un agente de IA se mantengan coherentes en cada llamada a una herramienta, interacción y acceso a los datos. Esto permite comprobar que un agente hace lo que debe hacer, solo lo que está autorizado a hacer y exactamente lo que el usuario ha solicitado. La integridad de los agentes es fundamental para el gobierno de la IA por diversas razones:Las empresas deben garantizar la seguridad de la IA agéntica, ya que los agentes autónomos pueden realizar acciones independientes en todos los sistemas y los sistemas de seguridad tradicionales no son capaces de verificar si dichas acciones se ajustan al objetivo inicial del agente. Estos agentes operan en entornos de correo electrónico, almacenamiento cloud, CRM, herramientas de desarrollo y bases de datos internas, a menudo a través de API directas o conexiones MCP. Esto crea rutas de acceso persistentes de las que los equipos de seguridad no siempre tienen conocimiento.
Estas son algunas de las principales razones por las que las empresas deben proteger la IA agéntica:
- Garantiza la coherencia de las intenciones: cada acción del agente puede evaluarse en relación con la solicitud inicial del usuario para evitar cualquier exceso.
- Establece una responsabilidad conductual: los equipos de seguridad pueden comprobar si los agentes han actuado dentro de los límites establecidos mediante un razonamiento por etapas.
- Refuerza la confianza en todos los despliegues: las comprobaciones periódicas de integridad permiten a las empresas desplegar más agentes sin aumentar los riesgos.
- Asegura el cumplimiento normativo: Los marcos de gobernanza exigen la trazabilidad, la explicabilidad y la auditabilidad de los sistemas autónomos.
- Soluciona las deficiencias que los sistemas de seguridad tradicionales no logran subsanar: las autorizaciones por sí solas no bastan para garantizar que las acciones realizadas por un agente se ajusten a la tarea prevista.
-
¿Cómo pueden las organizaciones auditar las acciones de los agentes de IA con fines de cumplimiento normativo y análisis forense?
Las organizaciones pueden auditar las acciones de los agentes de IA recopilando datos telemétricos de extremo a extremo que permiten rastrear todo el proceso, desde la solicitud del usuario hasta el razonamiento del agente, pasando por la activación de la herramienta y el resultado final. Para que la auditoría sea eficaz, es necesario tener una visión clara de los flujos de trabajo de los agentes, las rutas de acceso a las herramientas y las conexiones MCP. Los elementos esenciales de la auditabilidad de los agentes incluyen:Las organizaciones pueden auditar las acciones de los agentes de IA recopilando datos telemétricos de extremo a extremo que permiten rastrear todo el proceso, desde la solicitud del usuario hasta el razonamiento del agente, pasando por la activación de la herramienta y el resultado final. Para que la auditoría sea eficaz, es necesario tener una visión clara de los flujos de trabajo de los agentes, las rutas de acceso a las herramientas y las conexiones MCP.
Los elementos esenciales de la auditabilidad de los agentes incluyen:
- Reconstrucción completa de la transacción: relacione cada etapa del razonamiento del agente y sus acciones con el usuario original.
- Telemetría a nivel de comportamiento: registre los procesos de toma de decisiones, las solicitudes de herramientas y los accesos a los datos en los flujos de trabajo de varias etapas y con varios agentes.
- Comparación entre la intención y la acción: compruebe si cada acción se correspondía con la tarea definida inicialmente por el usuario.
- Inspección a nivel de protocolo: supervise y controle los datos que transitan por las conexiones MCP y las API externas.
- Pistas de auditoría justificables: genere registros detallados adecuados para los controles de cumplimiento, la gestión de incidentes y las declaraciones reglamentarias.