Voltar ao início

Histórico de Mudanças em IA - Sistemas de Auditoria

Última atualização em: 15/10/2025

1. Histórico de Mudanças de IA

Registro cronológico de todas as alterações em sistemas de IA (da mais recente para a mais antiga):

DataVersãoO Que MudouPor QuêImpacto EsperadoAção do ClientePrivacidade
15/10/20252025.10Sistema inicial de auditoria via IA
  • Modelo primário: Google Gemini 2.0 Flash Thinking
  • Modelo secundário: DeepSeek R1
  • 90 critérios ISO 27001/27701 implementados
  • Roteamento via OpenRouter
  • Dual audit system (OPTI v3)
Lançamento da plataforma TrustThis com sistema automatizado de auditoria de privacidade e segurançaBASELINE

Análises automatizadas de políticas de privacidade com revisão humana obrigatória

Nenhuma ação necessária
  • ✅ Sem dados pessoais de usuários enviados
  • ✅ Cache desativado em provedores
  • ✅ Região: US (OpenRouter)
  • ✅ Apenas políticas públicas processadas

⚠️ Nota Importante sobre Mudanças em IA

Mudanças em modelos de IA, critérios de auditoria ou thresholds podem alterar scores de empresas. Quando comparar resultados ao longo do tempo, sempre considere a versão do sistema utilizada. Para garantir reprodutibilidade, mantemos arquivamento de versões anteriores disponíveis mediante solicitação para clientes enterprise.

2. Sobre Este Registro

A TrustThis mantém este registro público de todas as mudanças em nossos sistemas de Inteligência Artificial como parte do nosso compromisso com transparência algorítmica e conformidade com frameworks internacionais de governança de IA.

Por Que Documentamos Mudanças em IA:

  • Transparência algorítmica: Usuários têm direito de saber como decisões automatizadas são tomadas
  • Conformidade regulatória: EU AI Act (High-Risk Systems), NIST AI Risk Management Framework
  • LGPD Art. 20: Direito de revisão de decisões automatizadas
  • Accountability: Permitir auditoria externa de mudanças em sistemas críticos
  • Reprodutibilidade: Facilitar comparação de resultados ao longo do tempo

🤖 O Que É Registrado:

  • Mudanças em modelos de IA (versões, provedores)
  • Alterações em critérios de auditoria (adição, remoção, modificação)
  • Ajustes em thresholds ou limiares de decisão
  • Modificações em pipelines de processamento
  • Atualizações em sistemas de revisão humana

3. Como Interpretar Este Registro

Cada entrada no histórico contém informações estruturadas para facilitar a compreensão do impacto de mudanças:

📅 Data

Quando a mudança foi implementada em produção

🏷️ Versão

Identificador único da versão do sistema (formato: AAAA.MM)

🔧 O Que Mudou

Descrição técnica da alteração (modelos, critérios, thresholds)

❓ Por Quê

Justificativa de negócio/técnica para a mudança

📊 Impacto Esperado

Como pode afetar resultados de auditorias (scores, classificações)

⚡ Ação do Cliente

O que você precisa fazer, se algo (geralmente: nenhuma ação necessária)

🔒 Privacidade

Resumo de implicações de privacidade (dados compartilhados, região de processamento)

Níveis de Impacto:

ALTOMudança significativa que pode alterar scores em +/-10 pontos
MÉDIOAlteração moderada com variação esperada de +/-5 pontos
BAIXOMudança técnica com impacto mínimo (melhorias de performance, correções)

4. O Que NÃO Publicamos

Por razões de segurança, privacidade e propriedade intelectual, não publicamos os seguintes dados:

❌ Informações Confidenciais:

  • Prompts completos enviados aos modelos de IA (propriedade intelectual, evitar gaming do sistema)
  • Respostas integrais dos modelos (podem conter análises sensíveis)
  • Dados de clientes ou empresas auditadas (LGPD/GDPR compliance)
  • Chaves de API, tokens ou segredos (segurança operacional)
  • Detalhes de vulnerabilidades não corrigidas (responsible disclosure)
  • Pesos ou parâmetros internos de modelos (propriedade de provedores)

Se você precisa de informações mais detalhadas para fins de auditoria ou research, entre em contato:compliance@trustthis.org

5. Conformidade e Frameworks

Nosso sistema de registro de mudanças em IA segue os seguintes frameworks e regulamentações:

🇪🇺 EU AI Act

Sistema de auditoria classificado como High-Risk (Annex III, item 5b - Credit scoring). Requer transparência algorítmica, logging de decisões e direito de contestação.

🇺🇸 NIST AI RMF

Alinhamento com funções: Govern, Map, Measure, Manage. Changelog atende requisitos de MAP 5.1 (Impact assessment) e MANAGE 4.1 (Monitoring).

🇧🇷 LGPD Art. 20

Direito de revisão de decisões automatizadas. Este changelog permite que titulares entendam como decisões foram tomadas e solicitem revisão humana.

📊 ISO 42001

Management System for Artificial Intelligence. Changelog atende requisitos de documentação de mudanças em sistemas de IA (claúsula 7.5 - Documented Information).

6. Notificações de Mudanças

Quando realizamos mudanças significativas em sistemas de IA, notificamos usuários através de:

📧 E-mail (mudanças de alto impacto)

Enviado para usuários cadastrados com antecedência mínima de 15 dias quando esperamos variação >5 pontos em scores.

🔔 Aviso no Painel (todas as mudanças)

Notificação destacada ao fazer login com link direto para este changelog.

📰 Publicação nesta Página (registro permanente)

Todas as mudanças, independentemente do impacto, são registradas aqui.

📡 RSS Feed (em breve)

Assinatura via RSS para receber notificações automáticas de novas entradas.

🔗 Para Entender Como Nossa IA Funciona

Este changelog documenta o quê mudou e quando. Para entender como nossa IA funciona em detalhes, visite nosso Hub de Transparência de IA:

🤖Transparência de IA

Este changelog faz parte do nosso compromisso com transparência algorítmica e governança responsável de IA.

Para dúvidas sobre mudanças em IA, solicitar revisão humana de auditoria ou reportar comportamento inesperado:

📖 Documentos Relacionados: