Pular para o conteúdo

Governança de IA na prática: Liderança em Segurança: Insights do Fórum de Liderança em Governança de IA

A adoção da IA está se acelerando em um ritmo sem precedentes. Mas Governança de IA — as estruturas, políticas e controles operacionais que as organizações usam para gerenciar como os sistemas de IA acessam, processam e atuam sobre os dados corporativos — está tendo dificuldades para acompanhar o ritmo.

Principais conclusões: O que os líderes de segurança de IA precisam saber

A governança da IA deve ser operacional, e não apenas uma política. O maior desafio da IA não é a tecnologia em si, mas sim governar como os sistemas de IA interagem com os dados empresariais em tempo real.

O problema de risco da IA é um problema de dados. A maioria das falhas na governança de IA decorre do acesso descontrolado aos dados, e não de falhas nos modelos. A visibilidade dos dados é a base de qualquer estratégia de segurança de IA.

A IA agética requer governança de identidade. Agentes autônomos de IA precisam dos mesmos controles de acesso que os funcionários humanos — identidade centralizada, privilégio mínimo e monitoramento contínuo.

A segurança da IA abrange todo o ciclo de vida do aprendizado de máquina. A integridade dos dados de treinamento, o monitoramento do comportamento do modelo e a segurança imediata da interface fazem parte da segurança da IA empresarial — e não apenas da API de produção.

O excesso de confiança nas estruturas existentes representa um risco para a IA. Muitas organizações acreditam que seus programas atuais de privacidade e segurança abrangem a IA. A maioria não abrange. É necessária uma governança contínua e multifuncional da IA.

A liderança em segurança de IA começa com uma única pergunta: Você conhece seus dados? Sem visibilidade dos dados, governar a IA torna-se praticamente impossível.

O que é governança de IA?

A governança de IA refere-se às estruturas operacionais, controles e mecanismos de responsabilização que as organizações utilizam para gerenciar a interação dos sistemas de IA com os dados, pessoas e processos da empresa. Uma governança de IA eficaz abrange a visibilidade dos dados, gerenciamento de identidade, monitoramento de segurança e conformidade regulatória — e devem ser incorporados continuamente em toda a empresa. Ciclo de vida da IA, não se limitando a documentos de política prévia.

Essa lacuna entre o que as organizações querem que a IA faça e o que elas estão preparadas para governar foi o tema central do Fórum de Liderança em Governança de IA, onde líderes de segurança, privacidade e segurança de IA se reuniram para discutir como a IA responsável se parece no mundo real.

Ao longo da palestra principal e dos dois painéis de especialistas, uma ideia surgiu repetidamente: a governança da IA não pode mais ficar restrita a documentos de políticas. Ela precisa ser operacional. E as organizações que acertarem na governança da IA não serão apenas as mais rápidas em se adaptar — elas governarão da maneira mais inteligente.

Vamos analisar como essas ideias se aplicam na prática.

Segurança da IA em uma empresa orientada a agentes: governança e risco

Palestrante principal: Francis Odum, fundador e CEO da Software Analyst Cyber Research.

A segurança da IA atingiu um ponto de inflexão para a governança corporativa. As organizações estão adotando a IA rapidamente — muitas vezes sob pressão de conselhos e executivos ansiosos por avanços mais ágeis. No entanto, as estruturas de segurança de IA necessárias para gerenciar esse crescimento ainda estão em desenvolvimento.

A adoção da IA está se acelerando porque conselhos administrativos e CEOs estão pressionando por ela — mas a segurança ainda está ficando para trás.

 

— Francis Odum, Fundador e CEO, Analista de Software, Pesquisa Cibernética

A ascensão da IA agente e seu significado para a segurança

A mudança não se resume apenas a IA generativa ferramentas não são mais necessárias. As empresas estão migrando para sistemas de IA agentes — agentes autônomos capazes de raciocinar, interagir com sistemas e concluir tarefas com supervisão humana mínima. Isso altera drasticamente a governança da IA e a equação de risco da IA.

Esses agentes interagem com os sistemas corporativos da mesma forma que os funcionários: conectando-se a arquivos, APIs, sistemas de CRM, documentação interna e registros de clientes. Isso significa que o risco da IA não é mais teórico — é operacional.

O problema do risco da IA é, na verdade, um problema de dados.

Gestão de riscos de IA Tudo começa com os dados. Embora muitas organizações se concentrem na segurança dos modelos, o maior risco reside no acesso aos dados. Os sistemas de IA conectam-se cada vez mais a fontes de dados empresariais sensíveis, expandindo drasticamente a superfície de ataque.

A maioria das falhas de governança não virá dos pesos dos modelos — elas virão do contexto conectado: arquivos, e-mails, dados de clientes e código-fonte.

— Francisco Odum

Obtenha visibilidade do acesso a dados de IA, identidade e riscos em todo o ambiente.

Sistemas de IA seguros e redução de riscos

Uma estrutura para a liderança em segurança da IA

Por mais avançada que a IA se torne, o problema ainda começa como um problema de dados. Odum delineou três prioridades para a liderança em segurança de IA na era dos agentes:

Fiquei realmente impressionado com a iniciativa da BigID em governança de identidades orientada a agentes, que estende a visibilidade da identidade até a camada de dados. À medida que as identidades não humanas desempenham um papel cada vez maior, compreender como elas interagem com dados sensíveis torna-se crucial.

 

— Francisco Odum

Governança de IA para Privacidade: Projetando para Sistemas Imprevisíveis

Painel: Aaron Weller (HP), Chantra Stevenson (Alaska Airlines), Mae-Beth Magno (Boeing)

As estruturas tradicionais de privacidade por design pressupunham que os sistemas se comportavam de maneira determinística. A IA generativa rompe com esse modelo. Esta sessão abordou um desafio fundamental da governança da IA: Como as estruturas de privacidade devem evoluir para sistemas de IA que não se comportam de forma previsível.

A governança da IA deve se tornar contínua.

Os sistemas de IA aprendem, evoluem e, por vezes, comportam-se de forma inesperada. Consequentemente, a governança da IA deve passar de revisões estáticas para uma supervisão contínua. As organizações precisam agora de:

  • Monitoramento comportamental contínuo
  • Detecção de desvios e alertas de anomalias
  • Teste de comportamento do modelo após a implantação
  • Revisões de governança de IA pós-implantação

A privacidade tradicional por concepção pressupunha que soubéssemos exatamente o que um sistema faria. Com a IA generativa, estamos projetando sistemas que podem nos surpreender.

 

— Aaron Weller, HP

O excesso de confiança é um risco crescente da IA.

Uma constatação crucial do painel: muitas organizações acreditam que suas estruturas de privacidade existentes já abrangem a IA. Essa suposição, por si só, representa um risco relacionado à IA.

Muitas organizações estão confiantes demais em relação à sua preparação para a IA generativa em termos de privacidade.

 

— Chantra Stevenson, Alaska Airlines

Os novos riscos da IA — desde a injeção imediata de informações até o vazamento de dados de treinamento — exigem abordagens de governança de IA que vão além dos programas tradicionais de privacidade.

A governança da IA exige colaboração interfuncional.

Isso não é mais um processo de controle de acesso — é infraestrutura.

 

— Mae-Beth Magno, Boeing

A conformidade com a IA e a governança da privacidade não podem operar isoladamente. Elas devem ser incorporadas diretamente ao desenvolvimento de produtos — trabalhando em conjunto com as equipes de engenharia, produto e governança de dados. O objetivo não é desacelerar a inovação, mas sim construir mecanismos de proteção que acompanhem sua evolução.

Protegendo sistemas de IA desde o treinamento até a produção.

Painel: Sabna Sainudeen (Carlsberg), Samaresh Singh (HP), Marissa Palmer (TrueCar)

Garantir a segurança de sistemas de IA exige uma abordagem fundamentalmente diferente da segurança de infraestrutura tradicional. A segurança da IA deve abranger todo o ciclo de vida do aprendizado de máquina — desde a integridade dos dados de treinamento até a implantação e inferência do modelo.

A IA amplia a superfície de segurança empresarial.

Os sistemas de IA introduzem considerações de segurança totalmente novas. As organizações agora devem proteger:

A segurança precisa estar integrada em todo o ciclo de vida do aprendizado de máquina — não apenas na API ou na camada de produção.

 

— Samaresh Singh, HP

Integridade dos dados de treinamento: a camada mais crítica

Uma das maiores vulnerabilidades de segurança da IA reside logo no início do ciclo de vida: a integridade dos dados de treinamento. Se os dados de treinamento forem comprometidos, o comportamento do modelo pode se tornar imprevisível — e o problema pode surgir apenas muito tempo depois.

Se os dados de treinamento forem manipulados precocemente, o comportamento do modelo poderá revelar o problema apenas muito mais tarde.

 

— Samaresh Singh, HP

Segurança da IA exige monitoramento comportamental.

Os sistemas de IA estão mudando a forma como as equipes de segurança operam. Em vez de se concentrarem apenas em alertas de infraestrutura, as equipes precisam monitorar o comportamento e as anomalias dos modelos.

Precisamos procurar por anomalias comportamentais, porque a IA nem sempre falha de maneiras óbvias.

 

— Marissa Palmer, TrueCar

A segurança da IA se baseia em fundamentos existentes, mas requer novas camadas.

Apesar da nova complexidade, muitos princípios tradicionais de segurança ainda se aplicam. As organizações podem reutilizar a segurança do pipeline de CI/CD, a verificação de dependências e o monitoramento de infraestrutura, mas devem expandir para a governança de dados, o monitoramento de modelos e a detecção de ameaças específicas para IA.

Podemos reutilizar muitas de nossas práticas de segurança existentes, mas a camada de dados e o comportamento do modelo introduzem desafios completamente novos.

 

— Sabna Sainudeen, Grupo Carlsberg

A mudança estratégica: da adoção da IA à governança da IA

Ao longo das três sessões, uma constatação ficou clara: o maior desafio da IA não é a tecnologia em si, mas sim a forma como essa tecnologia interage com os dados corporativos. Os sistemas de IA amplificam os riscos já existentes relacionados ao acesso a dados, à governança de identidade, ao monitoramento de segurança e à responsabilidade regulatória.

As organizações que tiverem sucesso com IA não serão apenas as mais rápidas em se adaptar — elas serão as que governarão com mais inteligência. E a governança de IA começa com uma pergunta simples:

Você realmente conhece seus dados?

Porque sem essa visibilidade, governar a IA — e gerir os riscos da IA — torna-se praticamente impossível.

Perguntas frequentes sobre governança e segurança da IA

O que é governança de IA e por que ela é importante para a segurança empresarial?

A governança de IA é o conjunto de estruturas operacionais, políticas e controles que as organizações utilizam para gerenciar como os sistemas de IA acessam dados, tomam decisões e operam em ambientes corporativos. Ela é importante para a segurança da IA empresarial porque a IA sem governança expande drasticamente a superfície de ataque — permitindo a conexão com arquivos confidenciais, registros de clientes, APIs e código-fonte sem a devida supervisão.

Quais são os maiores riscos da IA para as empresas em 2025?

Os maiores riscos da IA para empresas incluem: acesso descontrolado a dados por agentes de IA, manipulação de dados de treinamento, ataques de injeção de código, vazamento de dados de treinamento, excesso de confiança nas estruturas de privacidade existentes e falta de monitoramento comportamental após a implantação. Especialistas em segurança de IA enfatizam consistentemente que o gerenciamento de riscos de IA deve começar com a visibilidade dos dados.

Em que aspectos a IA agente difere dos desafios tradicionais de governança da IA?

Sistemas de IA agéticos são agentes autônomos capazes de raciocinar, executar ações e interagir com sistemas corporativos — incluindo arquivos, APIs, plataformas de CRM e documentação interna — sem supervisão humana constante. Isso torna a governança de IA agética significativamente mais complexa do que a governança de IA tradicional, visto que esses agentes se comportam mais como funcionários digitais e exigem controles de identidade e acesso correspondentes.

Como se manifesta, na prática, a liderança em segurança da IA?

Liderança em segurança de IA significa operacionalizar a governança de IA em todas as funções de dados, identidade e segurança. Isso envolve convergir a governança de dados com o gerenciamento de identidades, tratar os agentes de IA como identidades digitais gerenciadas, proteger todo o ciclo de vida do aprendizado de máquina, desde os dados de treinamento até a inferência, e incorporar o monitoramento contínuo às implementações de IA, em vez de depender de revisões pontuais.

Como as organizações devem construir uma estrutura de governança de IA?

Uma estrutura eficaz de governança de IA deve: (1) estabelecer a visibilidade dos dados como fundamento, (2) integrar controles de identidade e acesso para agentes humanos e de IA, (3) incorporar revisões de segurança e privacidade continuamente ao longo do ciclo de vida da IA, (4) incluir monitoramento comportamental e detecção de desvios após a implantação e (5) alinhar equipes multifuncionais, incluindo segurança, privacidade, engenharia e jurídico, em torno da responsabilidade compartilhada pelo risco da IA.

Qual a relação entre governança de dados e segurança da IA?

A governança de dados e a segurança da IA são inseparáveis. Os sistemas de IA só podem ser protegidos se as organizações primeiro entenderem quais dados existem, onde estão armazenados e quem — ou o quê — pode acessá-los. A governança de dados fornece a base para a segurança da IA, permitindo que as organizações controlem quais dados de treinamento são usados, limitem o acesso dos agentes de IA a dados sensíveis e detectem padrões anômalos de acesso a dados.

Assista à gravação completa do fórum.

Descubra como a BigID ajuda as organizações a encontrar, proteger e governar dados para IA — desde o treinamento até a produção.

Conteúdo

Conecte os pontos em dados e IA por meio de governança, contexto e controle.

Otimize suas iniciativas de IA, reduza riscos e acelere a inovação segura por meio de descoberta unificada, classificação, governança do ciclo de vida e catalogação rica em contexto.

Baixar Resumo da Solução