risco.ia.br → Operacional

Riscos operacionais de IA

Não aparecem no relatório de disponibilidade. Aparecem no resultado de negócio — tarde demais.

Risco operacional de IA não é o sistema fora do ar. É o sistema funcionando e tomando decisões erradas. Drift silencioso, Shadow AI, modelo sem dono, dados contaminados — todos operam em silêncio. O alerta chega quando o dano já está feito: inadimplência acima do esperado, auditoria com achados, reclamação formal do regulador. O custo de descoberta retroativa é sempre maior que o custo de controle preventivo.


Crítico

IA Orphan — Modelo em Produção Sem Dono

Há um modelo rodando na sua empresa agora. Pergunte quem é o responsável. Se demorar mais de 10 segundos, você tem IA orphan.

Ver →
Crítico

Drift Silencioso — O Modelo que Está Errado Sem Avisar

O modelo foi validado. Foi para produção. Está errado há seis meses. Ninguém sabe. Drift não gera alerta de disponibilidade.

Ver →
Crítico

Shadow AI — O Risco que o Board Não Vê

Seu analista usou ChatGPT com dados reais de clientes. Sem aprovação. Isso já aconteceu hoje na sua empresa.

Ver →
Alto

Ausência de Baseline — Sem Referência, Sem Controle

Você implantou IA no processo de crédito. Não registrou como era antes. Agora não sabe se melhorou ou piorou.

Ver →
Crítico

Ciclo de Vida Não Documentado — O Que o Auditor Vai Pedir

O auditor vai perguntar quem aprovou esse modelo. Você vai ligar para a TI. A TI vai dizer que não sabe.

Ver →
Alto

Dados de Treino Contaminados — O Problema que Começa antes do Modelo

O modelo aprende com os dados que você deu a ele. Se os dados eram ruins, o modelo é ruim — e vai continuar sendo.

Ver →
Crítico

Viés Algorítmico — Discriminação Sistemática em Escala

O modelo não discrimina intencionalmente. Discrimina sistematicamente. Para o regulador, a diferença legal é zero.

Ver →
Alto

LLM com Dados de Clientes — Risco que o Contrato de SaaS Não Cobre

Você assinou o contrato do SaaS. O contrato não diz o que o fornecedor faz com os dados que você envia para o LLM.

Ver →