Three cybersecurity professionals collaborating around a laptop in a modern office, analyzing data on screen—framed by a green curved graphic on a black background consistent with Proofpoint branding.
Three cybersecurity professionals collaborating around a laptop in a modern office, analyzing data on screen—framed by a green curved graphic on a black background consistent with Proofpoint branding.
Segurança de IA agêntica

Proteja o uso de IA por agentes

Promova sua estratégia de adoção de IA empresarial com confiança.

Visão geral e vantagens

Garanta a segurança das implantações de agentes em toda a sua empresa

Implemente e utilize agentes autônomos com total integridade e plena responsabilização.

Ações de agentes alinhadas conforme a intenção

Cada ação de um agente é avaliada em relação à intenção do usuário e violações de escopo são detectadas mesmo quando as permissões são válidas.

Visibilidade completa do fluxo de trabalho do agente

As transações são totalmente reconstruídas – desde a solicitação do usuário até o raciocínio do agente e a invocação de ferramentas – tudo vinculado ao usuário de origem.

Governança dimensionada conforme a adoção

A observabilidade e a aplicação de políticas são dimensionadas de acordo com as implantações de agentes em uma única plataforma.

Por que isso é importante

Agentes autônomos atuam em nome dos usuários, com ou sem o conhecimento da sua equipe de segurança

Agentes autônomos podem atuar em canais como e-mail, armazenamento em nuvem, repositórios de código e bancos de dados – tudo via API, protocolo de contexto de modelo (MCP) ou integrações personalizadas. Agentes implantados sem o conhecimento da segurança (IA não autorizada) têm acesso persistente a dados confidenciais em todos os aplicativos conectados e integrações subsequentes. Mesmo quando os agentes são conhecidos e aprovados, a segurança tradicional não consegue verificar se cada ação está alinhada com a tarefa que o agente foi solicitado a realizar.

É por isso que a integridade do agente é essencial. Sem uma maneira de assegurar o alinhamento entre o que os agentes podem fazer, devem fazer e realmente fazem, as organizações enfrentam riscos crescentes. Estes incluem:

  • Caminhos de acesso de longa duração e não supervisionados criados por agentes de IA não autorizada
  • Ações que excedem a intenção do usuário apesar de passar nas verificações de permissão
  • Cadeias de decisão pouco transparentes que limitam a supervisão e a confiança
  • Exposição mais ampla impulsionada por cada ferramenta, API e servidor MCP que o agente utiliza
Security analysts working in a modern office environment, reviewing dashboards and data on multiple monitors—representing Proofpoint teams monitoring threats and protecting users.
Detalhes do produto

Dimensione agentes autônomos que sejam auditáveis, confiáveis e controláveis

Descoberta de agentes e MCP

Descubra agentes autônomos – tanto personalizados quanto gerenciados – suas cadeias de ferramentas, conexões a servidores MCP e serviços externos. Rastreie a execução desde o agente até a ferramenta e o servidor MCP, estendendo o inventário à infraestrutura utilizada pelos agentes.

Observabilidade em tempo de execução

Capture telemetria em nível de comportamento em fluxos de trabalho de múltiplas etapas com visibilidade correlacionada entre agente, ferramenta e caminhos de MCP. Acompanhe como o contexto de execução evolui durante transferências, inclusive sistemas de múltiplos agentes.

Controle de acesso baseado em intenção (IBAC)

Rastreie o que um usuário pede a um agente para fazer e avalie as ações subsequentes em relação a essa intenção. Detecte quando as ações do agente excedem o escopo da tarefa, mesmo quando passam em todas as verificações de permissão.

Governança do MCP

Imponha autenticação e inspeção de conteúdo no perímetro do MCP para todas as conexões de ferramentas. Controle os dados que passam por links de MCP e ações permitidas. Ajude as equipes de segurança a governar a camada de protocolo, onde os agentes acessam dados e aplicativos.

Visibilidade da cadeia de fornecimento de IA e avaliação do risco

Descubra e mantenha um catálogo de ferramentas externas, serviços de terceiros, APIs e servidores MCP utilizados pelos agentes. Avalie a postura de segurança de cada nó de dependência para que a cadeia de fornecimento de IA permaneça visível e governada.

Detecção de anomalias comportamentais

Construa uma linha de referência do comportamento do agente e sinalize desvios – como expansão de escopo, desvio e acesso incomum – que políticas estáticas ou o alinhamento de intenção podem não detectar. Identifique atividades fora das normas estabelecidas.

Análise forense e auditoria defensável

Reconstrua cadeias desde os pedidos dos usuários até o raciocínio do agente, invocações de ferramentas e resultados. Vincule cada etapa ao usuário de origem com contexto de segurança. Construa trilhas de auditoria completas e defensáveis para fins de governança, conformidade e resposta a incidentes.

 

 

Recursos relacionados

Explore recursos relacionados

Solicite uma demonstração

Solicite uma demonstração

Garanta a segurança dos agentes autônomos em toda a sua organização.

Perguntas frequentes

Perguntas frequentes

  • Por que as empresas precisam de segurança de IA agêntica para agentes autônomos?

    As empresas precisam de segurança de IA agêntica porque os agentes autônomos podem realizar ações independentes nos sistemas, e a segurança tradicional não pode verificar se essas ações estão alinhadas com a finalidade desejada do agente. Esses agentes operam em e-mail, armazenamento em nuvem, CRMs, ferramentas de desenvolvedor e bancos de dados internos, muitas vezes por meio de conexões MCP ou APIs diretas. Isso cria caminhos de acesso persistentes que as equipes de segurança podem desconhecer. As principais razões pelas quais as empresas precisam de segurança de IA agêntica incluem:

    As empresas precisam de segurança de IA agêntica porque os agentes autônomos podem realizar ações independentes nos sistemas, e a segurança tradicional não pode verificar se essas ações estão alinhadas com a finalidade desejada do agente. Esses agentes operam em e-mail, armazenamento em nuvem, CRMs, ferramentas de desenvolvedor e bancos de dados internos, muitas vezes por meio de conexões MCP ou APIs diretas. Isso cria caminhos de acesso persistentes que as equipes de segurança podem desconhecer.

    As principais razões pelas quais as empresas precisam de segurança de IA agêntica incluem:

    • Implantações de IA não autorizada: agentes podem ser criados ou conectados sem supervisão de segurança, herdando permissões amplas e de longa duração.
    • Comportamento de agente não verificável: até mesmo agentes aprovados podem tomar decisões não relacionadas às suas tarefas designadas, contornando limites de intenção.
    • Superfície de ataque expandida: cada ferramenta, API e servidor MCP conectado a um agente se torna parte da cadeia de fornecimento de IA da empresa.
    • Requisitos regulatórios e de supervisão: as organizações devem demonstrar um comportamento de IA controlado e auditável à medida que os padrões de governança evoluem.
  • Quais riscos os agentes de IA autônomos introduzem nos sistemas empresariais?

    Agentes de IA autônomos introduzem riscos porque agem de forma independente nos aplicativos e podem realizar ações que excedem a intenção do usuário, o escopo autorizado ou os fluxos de trabalho esperados. Como os modelos de IA agênticos raciocinam e operam por meio de planos de múltiplas etapas, seus caminhos de decisão podem ser difíceis de monitorar ou restringir em tempo real. Os principais riscos incluem:

    Agentes de IA autônomos introduzem riscos porque agem de forma independente nos aplicativos e podem realizar ações que excedem a intenção do usuário, o escopo autorizado ou os fluxos de trabalho esperados. Como os modelos de IA agênticos raciocinam e operam por meio de planos de múltiplas etapas, seus caminhos de decisão podem ser difíceis de monitorar ou restringir em tempo real.

    Os principais riscos incluem:

    • Desvio de escopo: os agentes podem realizar ações não relacionadas à tarefa que foram solicitados a realizar, mesmo passando por todas as verificações de permissão.
    • Caminhos de acesso não monitorados: os agentes frequentemente se conectam a ferramentas, APIs e servidores MCP que criam fluxos de dados invisíveis e privilégios persistentes.
    • Vulnerabilidades na cadeia de fornecimento de IA: serviços externos e integrações de terceiros podem introduzir novas superfícies de ataque e riscos de dependência.
    • Desvio comportamental: com o tempo, os agentes podem se afastar de normas comportamentais estabelecidas de tal forma que controles de política manuais não conseguem detectar.
    • Falta de visibilidade forense: sem telemetria especializada, as organizações não conseguem reconstruir a forma como um agente chegou a uma decisão ou realizou uma ação.
  • O que é a integridade do agente e por que ela é fundamental para a governança de IA?

    A integridade do agente é a garantia de que as permissões, o propósito e o comportamento real de um agente de IA permaneçam alinhados em cada chamada de ferramenta, interação e acesso a dados. Ela confirma que um agente está fazendo o que deve fazer, apenas o que tem permissão para fazer e exatamente o que o usuário solicitou. A integridade do agente é fundamental para a governança de IA porque:

    As empresas precisam de segurança de IA agêntica porque os agentes autônomos podem realizar ações independentes nos sistemas, e a segurança tradicional não pode verificar se essas ações estão alinhadas com a finalidade desejada do agente. Esses agentes operam em e-mail, armazenamento em nuvem, CRMs, ferramentas de desenvolvedor e bancos de dados internos, muitas vezes por meio de conexões MCP ou APIs diretas. Isso cria caminhos de acesso persistentes que as equipes de segurança podem desconhecer.

    As principais razões pelas quais as empresas precisam de segurança de IA agêntica incluem:

    • Impõe alinhamento de intenção: cada ação do agente pode ser avaliada com base na solicitação original do usuário para evitar excessos.
    • Estabelece responsabilização comportamental: as equipes de segurança podem verificar se os agentes agiram dentro do escopo durante um raciocínio de múltiplas etapas.
    • Expande a confiança nas implantações: verificações de integridade consistentes permitem que as empresas adotem mais agentes sem multiplicar o risco.
    • Acomoda conformidade regulatória: estruturas de governança exigem rastreabilidade, explicabilidade e auditabilidade de sistemas autônomos.
    • Fecha lacunas que a segurança tradicional não consegue fechar: permissões sozinhas não podem garantir que as ações escolhidas por um agente correspondam à tarefa pretendida.
  • Como as organizações podem auditar ações de agentes de IA para conformidade e análise forense?

    As organizações podem auditar ações de agentes de IA capturando uma telemetria de ponta a ponta que reconstrói toda a cadeia, desde a solicitação do usuário até o raciocínio do agente, a invocação de ferramentas e o resultado final. Uma auditoria eficaz requer visibilidade em fluxos de trabalho de agentes, caminhos de ferramentas e conexões MCP. Os componentes principais da auditabilidade de agentes incluem:

    As organizações podem auditar ações de agentes de IA capturando uma telemetria de ponta a ponta que reconstrói toda a cadeia, desde a solicitação do usuário até o raciocínio do agente, a invocação de ferramentas e o resultado final. Uma auditoria eficaz requer visibilidade nos fluxos de trabalho dos agentes, nos caminhos das ferramentas e nas conexões MCP.

    Os componentes principais da auditabilidade de agentes incluem:

    • Reconstrução completa de transações: vincule cada etapa do raciocínio e das ações do agente ao usuário de origem.
    • Telemetria em nível de comportamento: registre ramificações de decisões, chamadas de ferramentas e acessos a dados em fluxos de trabalho de múltiplas etapas e múltiplos agentes.
    • Comparação entre intenção e ação: verifique se cada ação foi apropriada para a tarefa que o usuário forneceu originalmente.
    • Inspeção em nível de protocolo: monitore e governe dados que passam por conexões MCP e APIs externas.
    • Trilhas de auditoria defensáveis: produza registros detalhados adequados para revisões de conformidade, resposta a incidentes e relatórios regulatórios.