A IA está remodelando a forma como as organizações usam dados — e, com isso, o escopo e a complexidade dos riscos à privacidade. Embora as estruturas tradicionais de privacidade forneçam uma base sólida, elas não foram desenvolvidas para os desafios específicos impostos pela IA: modelos opacos, fluxos de dados dinâmicos e viés algorítmico.
Esta sessão analisa como os profissionais de privacidade podem adaptar e aplicar estruturas emergentes de risco de IA, como a Lei de IA da UE, para criar programas de governança escaláveis e eficazes. Exploraremos como estender os princípios de privacidade desde a concepção aos sistemas de IA, avaliar riscos com confiança e colaborar com as equipes de segurança, jurídica e de ciência de dados para liderar com responsabilidade na era da automação inteligente.
O que você aprenderá:
- Como a privacidade, a segurança e o risco da IA se cruzam — e onde as estruturas falham
- Quais estruturas de risco de IA emergentes são importantes (e por quê)
- Estratégias práticas para avaliar o risco de privacidade da IA em escala
- Como evoluir seu programa de privacidade para atender às novas demandas regulatórias e organizacionais
- O que é preciso para construir uma governança de IA flexível, multifuncional e preparada para o futuro
Quer você esteja refinando políticas internas ou projetando controles para sistemas de IA, você sairá com uma lente mais nítida e uma estrutura escalável.