O que está acontecendo
IA orphan é qualquer modelo de IA em produção sem um responsável nomeado com autoridade real.
Autoridade real significa: pode suspender o modelo, pode aprovar mudanças, responde em auditoria pelo comportamento do sistema.
Ocorre quando o desenvolvedor que criou o modelo saiu da empresa. Ocorre quando o projeto foi "entregue" sem transferência formal de responsabilidade. Ocorre quando ninguém quer assinar embaixo de um sistema crítico do qual não tem controle total.
Por que isso é problema do CFO
Sem dono, não existe monitoramento organizado. Não existe processo de rollback documentado. Não existe evidência de controle que um auditor aceite.
Para o auditor SOX, IA orphan é equivalente a sistema financeiro crítico sem controle de acesso documentado. Achado imediato.
Para a ANPD, modelo sem responsável identificável tratando dados pessoais é ausência de governança. A lei exige que exista uma pessoa responsável — não um departamento, não um sistema.
O que acontece quando isso vai para auditoria
O auditor vai perguntar: quem é o AI Owner desse sistema? Se a resposta for silêncio, "a área de TI", ou um funcionário que saiu, você tem achado.
Impossível responder as perguntas básicas sem AI Owner: qual é o desempenho atual do modelo? Quando foi a última revisão? O que acontece se ele falhar?
O auditor não aceita "vamos verificar" como resposta durante a auditoria. O achado já está registrado.
Impacto financeiro estimado
O custo não é a multa direta. É o custo de descobrir o que o modelo estava decidindo errado — e por quanto tempo.
Modelo de crédito orphan que ficou em produção degradado por 12 meses: custo de provisão retroativa, potencial reemissão de demonstrações, custo jurídico de defesa.
Custo de remediação emergencial de IA orphan: inventário urgente + nomeação de AI Owners + documentação retroativa. Estimativa: R$ 200k a R$ 800k dependendo do volume de modelos.
O que fazer
- Fazer inventário de todos os modelos em produção esta semana — não esperar o próximo ciclo de auditoria
- Para cada modelo: nome do responsável atual, contato direto, data da última revisão registrada
- Modelo sem responsável identificável: suspender operação até regularizar — não manter rodando sem controle
- Formalizar AI Owner em documento assinado: nome, cargo, escopo de responsabilidade, contato
- Incluir AI Owner como critério de go-live para qualquer novo sistema de IA — sem AI Owner nomeado, sistema não entra em produção
"Se você não consegue provar, você não controla. Modelo em produção sem AI Owner nomeado é modelo fora de controle — independente de estar funcionando."