Regulações de IA, ISO’s e o mercado de certificações e conformidade

AI Act

Regulações de privacidade e de IA estão saindo do papel. O AI Act já foi aprovado e entra em vigor em ondas, com obrigações diferentes por tipo de sistema: proibições, regras para modelos de uso geral, deveres adicionais para sistemas de alto risco, prazos de registro, documentação e supervisão. Em paralelo, PL 2338 no Brasil e normas internacionais de privacidade e segurança vão apertando o cerco sobre governança, impacto e transparência.​

Nesse contexto, muita gente passou a tratar ISO’s como 42001, 27701 etc. como um “novo selo de qualidade” para mostrar conformidade: quadro na recepção, logomarca no site, slide em apresentação para investidor. Em tese, isso poderia ser positivo: as normas trazem linguagem comum, processos e referências técnicas sólidas. O problema é quando certificação vira substituto de governança, não evidência dela.​

O AI Act, em teoria, não se satisfaria com um certificado genérico: exige registro e documentação rastreável de sistemas de alto risco, gestão de ciclo de vida, logs, explicabilidade proporcional ao risco, supervisão humana efetiva, avaliação de impacto e auditorias. Já ISO 42001 foi desenhada como AIMS compatível com HLS, para integrar com sistemas de gestão existentes (27001, 27701, 9001 etc.), não como um PDF anexado à política de segurança.

Quando uma organização promete “IA segura” ou “em conformidade com a lei” apenas porque montou um comitê, aprovou uma policy genérica e pendurou um certificado, isso não é boa‑fé: é risk & compliance washing. A ISO certifica processos e sistema de gestão, não “produto perfeito”. E a lógica de diligência em privacidade, segurança e IA exige proporcionalidade, registros de decisão, revisão contínua de riscos e controles testados – não apenas auditoria anual e renovação a cada três anos.

Pinga Fogo 🔥 para quem está nessa corrida por selos:
– Seu AI governance council tem mandato, poder de veto e acesso a dados de risco, ou é só um fórum de apresentação?
– Você roda, de fato, AI Impact Assessment estruturado (ISO 42005/23894/24368), com cenários, trade‑offs e plano de ação, ou só adapta o DPIA da LGPD e “carimba” que está tudo bem?
– O board vê relatórios de impacto, drift de modelos, decisões revertidas, incidentes de IA, com a mesma cadência que acompanha crédito, mercado e risco operacional?

Do ponto de vista de quem já atua no mercado, o que separa programa sério de fachada é objetivo:
– Existência de evidências vivas (logs, registros de decisão, revisões de modelo, aprendizado de incidentes);
– Integração real entre 42001, 27701, 27001, 23894, 27035‑3 e frameworks de risco, em vez de trilhas paralelas que ninguém opera no dia a dia.
– Certificação não é vilã; e pode ser uma âncora importante.

Você está construindo governança de IA e privacidade ou apenas um portfólio de certificados para acalmar o slide de stakeholders?

Coletânea de Artigos da querida Alessandra Monteiro Martins, cujo currículo não deixa dúvidas.
Writer & Speaker | Polímata | AI, Cyber, Privacy Governance & Tech Compliance | BSS 360 | TPRM & M&A | Strategic Partnerships in IT, Cyber & IA | Top Women To Follow Daryus 2023, 2024
E convidamos a todos para conhecer a Trilha “AI Compliance Officer do EXIN”