A IA está sendo implementada mais rapidamente do que a maioria das equipes de segurança consegue governá-la. Sejam modelos de IA paralelos executados sem aprovação ou dados sensíveis fluindo para ferramentas de terceiros sem análise, o resultado é o mesmo: aumento do risco regulatório e pontos cegos operacionais. A maioria das organizações não possui um sistema claro para supervisão de IA, deixando os modelos e os dados que os alimentam fora dos limites de conformidade e controle.
Esta sessão explora como organizar o caos. Desde a catalogação de cada modelo de IA e seus dados de entrada até a aplicação de políticas de uso e a divulgação de métricas de responsabilidade, os CISOs podem – e devem – assumir a liderança na governança da IA corporativa.
Principais conclusões:
- Modelos e dados do catálogo: Crie visibilidade em todos os modelos de IA em uso, incluindo ferramentas de terceiros e ferramentas não oficiais, e mapeie suas fontes de dados.
- Defina políticas claras para o uso de IA: Defina o que é permitido, o que não é e o que precisa ser revisto – garantindo o alinhamento entre as áreas de segurança, jurídica, de conformidade e de negócios.
- Alinhar com os requisitos de governança: Garanta que seus programas de IA atendam às exigências regulatórias, éticas e corporativas antes que estruturas externas o façam.
- Monitorar e reportar: Implemente a supervisão com monitoramento ativo, avaliação de riscos e relatórios prontos para auditoria em toda a sua infraestrutura de IA.
- Antecipe-se à regulamentação: Com os marcos regulatórios globais ainda em desenvolvimento, a governança interna é sua melhor defesa – e ataque – para uma adoção segura e escalável da IA.
Palestrantes:
- Nimrod Vax, CPO e cofundador da BigID
- Christopher Steffen, Vice-Presidente de Pesquisa – Segurança da Informação, Enterprise Management Associates (EMA)