O que está acontecendo

Shadow AI é uso de ferramentas de IA por funcionários sem aprovação corporativa, sem avaliação de risco, sem registro.

ChatGPT com dados de contratos. Copilot analisando planilhas de RH com salários. Gemini resumindo reuniões com informações confidenciais de clientes. Ferramentas de geração de código com acesso ao repositório interno.

Isso acontece hoje, na sua empresa, em escala que você não consegue estimar sem monitoramento ativo.

Por que isso é problema do CFO

Para a ANPD, dados de clientes enviados para modelo externo sem base legal é potencial incidente. O CFO não pode alegar desconhecimento quando a exposição é sistêmica.

Para o auditor SOX, processo crítico que passou a depender de ferramenta não homologada é controle inexistente. O auditor vai perguntar: como esse relatório foi preparado? Se a resposta incluir Shadow AI, você tem achado.

Para o board: risco reputacional que você não sabia que existia é o mais difícil de defender. A Samsung vazou código-fonte proprietário via ChatGPT em 2023. O caso é público. A consequência foi real.

O que acontece quando isso vai para auditoria

Incidente LGPD descoberto por auditoria tem agravante: a empresa sabia que havia risco de Shadow AI e não tinha controle. Isso é negligência — não falha operacional.

Para auditores de segurança e compliance: ausência de política de IA documentada é controle inexistente. A política não precisa ser restritiva para existir — mas precisa existir.

Em processo judicial, dados de clientes vazados via Shadow AI têm exposição direta para a empresa — não para o funcionário que usou a ferramenta.

Impacto financeiro estimado

Incidente LGPD por Shadow AI: multa de até R$ 50 milhões por infração. Custo adicional de notificação de titulares e gestão de crise.

Vazamento de informação confidencial estratégica: difícil de quantificar, mas histórico de casos indica impacto de mercado significativo para empresas listadas.

Custo de remediação: implementação de política + DLP + treinamento. Estimativa: R$ 100k a R$ 500k dependendo do porte e da situação atual.

O que fazer

"Controle não é documento. É evidência. Política de IA sem mecanismo de monitoramento é intenção — não controle."


Riscos relacionados

Regulatório

LGPD — Incidente e Prazo de 72h

Shadow AI é a principal fonte de incidentes não monitorados.

Operacional

LLM com Dados de Clientes

O que acontece com os dados que você envia para o modelo.

Fornecedor

SaaS com IA Sem Contrato

Ferramentas SaaS com IA que ninguém avaliou formalmente.