Transparencia de IA - TrustThis
Cómo funciona nuestra Inteligencia Artificial
Última actualización: 15/10/2025
TrustThis utiliza Inteligencia Artificial para automatizar análisis de privacidad y seguridad. Esta página documenta cómo funciona nuestra IA, sus límites y cómo garantizamos gobernanza responsable. La transparencia algorítmica es parte esencial de nuestra misión.
1. Visión General: Cómo Funciona Nuestra IA
Nuestro sistema de auditoría automatizada sigue un pipeline de 5 etapas con revisión humana obligatoria:
Recolección de Datos Públicos
Scraping automatizado de políticas de privacidad, términos de uso y documentación pública de empresas. Ningún dato personal de usuarios es enviado a IA.
Preprocesamiento
Limpieza de HTML, normalización de texto, eliminación de scripts. Reduce 30-40% del tamaño sin pérdida de información.
Mapeo de Evidencias (opcional)
IA identifica secciones relevantes para cada criterio antes de la auditoría completa. Mejora precisión en 20-30%.
Auditoría Dual (Gemini + DeepSeek)
Dos modelos de IA analizan independientemente 90 criterios ISO 27001/27701. Sistema AITS v3 combina resultados vía unión lógica (reduce falsos negativos).
Revisión Humana Obligatoria
Especialista en privacidad revisa todos los resultados antes de publicación. IA sugiere, humano decide.
💡 Principio Fundamental:
IA es una herramienta de apoyo, no un oráculo. Las decisiones finales sobre scores y recomendaciones siempre pasan por revisión humana calificada.
2. Principios y Referencias
Nuestro sistema de IA se desarrolla siguiendo los siguientes frameworks y principios internacionales:
📘 ISO 27001/27701/42001
- ISO 27001: Seguridad de la información (baseline)
- ISO 27701: Privacidad (90 criterios AITS derivados de aquí)
- ISO 42001: Management System for AI (gobernanza)
🇺🇸 NIST AI Risk Management Framework
- Govern: Políticas y responsabilidades definidas
- Map: Riesgos de IA identificados y documentados
- Measure: Métricas de performance y fairness
- Manage: Mitigación continua de riesgos
🇪🇺 EU AI Act
- High-Risk System (Annex III, 5b):
- Obligatoria para usuarios: Obligatoria para usuarios
- Human Oversight: Revisión humana implementada
- Contestation Rights: Derecho de contestar decisiones
🇧🇷 LGPD / 🇪🇺 GDPR
- LGPD Art. 20: Derecho de revisión de decisiones automatizadas
- GDPR Art. 22: Derecho de no ser sujeto a decisiones automatizadas
- Justificaciones claras para scores: Justificaciones claras para scores
🎯 Framework AITS (Propiedad TrustThis)
Sistema de 90 criterios derivados de ISO 27701, NIST Privacy Framework y GDPR. Evalúa conformidad en privacidad y seguridad de forma estructurada y auditable.
3. Dónde Usamos IA
IA es utilizada en tareas específicas donde demostramos mayor beneficio vs. riesgo:
✅ Clasificación de Criterios de Privacidad
Qué hace: Analiza políticas de privacidad y clasifica conformidad con 90 criterios ISO 27701.
Por qué IA aquí: Volumen de texto grande (10k-50k tokens), patrones complejos, múltiples interpretaciones posibles. Humano solo llevaría 8-12 horas/auditoría. IA + humano: 30-60 minutos.
Revisión humana: ✅ Obligatoria antes de publicación
✅ Detección de Cambios en Políticas
Qué hace: Compara versiones de políticas e identifica cambios significativos (nuevas recolecciones de datos, alteraciones en bases legales).
Por qué IA aquí: Diff semántico es superior a diff textual. IA detecta "ahora recolectamos biometría" aunque la redacción haya cambiado completamente.
Revisión humana: ✅ Obligatoria para cambios de alto impacto
✅ Resúmenes Explicativos
Qué hace: Genera resúmenes en lenguaje simple de hallazgos técnicos (ej: "Esta empresa no especifica por cuánto tiempo mantiene sus datos").
Por qué IA aquí: Traducción de jerga técnica a lenguaje accesible. Mejora UX sin comprometer precisión.
Revisión humana: ✅ Siempre revisado para evitar simplificación excesiva
❌ Lo Que NO Hacemos con IA:
- Decisiones finales sin humano: IA sugiere, especialista decide
- Scoring de personas: Solo empresas/sistemas son auditados, nunca individuos
- Entrenamiento con datos de clientes: Modelos son externos (OpenAI, Google, DeepSeek). No entrenamos modelos propios.
- Decisiones de contratación/crédito: Nuestros scores no deben ser usados para decisiones sobre personas
- Análisis de sentimientos: No hacemos análisis emocional o psicográfico
4. Modelos y Proveedores
Utilizamos enrutamiento vía OpenRouter, que permite flexibilidad para elegir los mejores modelos por tarea.
🤖 Modelos Principales (Sistema AITS v3):
Modelo Primario: Google Gemini 2.0 Flash Thinking
- Proveedor: Google LLC (vía OpenRouter)
- Context Window: 1M tokens (permite procesar políticas extensas)
- Por qué lo elegimos: Excelente en razonamiento legal/compliance, soporta thinking mode (muestra cadena de pensamiento)
- Tasa de aprobación: ~38-46% de los 90 criterios (conservador, reduce falsos positivos)
Modelo Secundario: DeepSeek R1
- Proveedor: DeepSeek (vía OpenRouter)
- Context Window: 32k tokens
- Por qué lo elegimos: Perspectiva diferente (entrenamiento diferente), ayuda a detectar falsos negativos del Gemini
- Sistema Dual: Unión lógica (OR) - criterio aprobado si cualquier modelo aprueba
🔒 Garantías de Privacidad:
- Sin datos personales de usuarios enviados: Solo políticas públicas son procesadas
- Cache desactivado: Ningún dato es almacenado en servidores de proveedores de IA
- Región de procesamiento: Estados Unidos (OpenRouter)
- Salvaguardas contractuales: DPAs firmados, SCCs en vigor
- No usamos datos para entrenar modelos: Modelos son externos y preentrenados
Historial de cambios en modelos: Ver changelog completo de IA
5. Limitaciones y Riesgos Conocidos
IA no es perfecta. Documentamos a continuación los principales riesgos conocidos y cómo los mitigamos:
⚠️ Alucinación (Hallucination)
Qué es: IA "inventa" hechos que no existen en el documento.
Ejemplo: Afirmar que empresa tiene certificación ISO 27001 cuando no hay evidencia de eso en la política.
Mitigación:
- Dual audit (dos modelos necesitan concordar o aprobamos si al menos 1 aprueba)
- Revisión humana obligatoria verifica evidencias citadas
- Sistema de contestación permite usuarios reportar inconsistencias
⚠️ Desactualización
Qué es: Modelos de IA son entrenados hasta una fecha de corte. Cambios legales recientes pueden no ser conocidos.
Ejemplo: Ley aprobada en 2025, pero modelo entrenado hasta 2024.
Mitigación:
- Criterios ISO son estables (cambios graduales)
- Revisores humanos son actualizados continuamente sobre cambios legales
- Sistema de actualización de criterios vía código (no depende solo del modelo)
⚠️ Ambigüedad Documental
Qué es: Políticas de privacidad vagas o contradictorias llevan a análisis inciertos.
Ejemplo: "Podemos compartir datos con socios" - ¿cuáles socios? ¿Para cuáles fines?
Mitigación:
- IA señaliza cuando texto es ambiguo ("evidencia insuficiente")
- Score refleja incertidumbre (criterio no aprobado si no hay claridad)
- Recomendaciones incluyen sugerencia de clarificación para la empresa
🛡️ Sistema de Calidad (QA):
- Auditorías de auditorías: 10% de las auditorías son revisadas por segundo especialista
- Métricas de performance: Tasa de falsos positivos, falsos negativos monitoreadas
- Feedback loop: Contestaciones de usuarios alimentan mejoras
- Tests en casos conocidos: Suite de 50 políticas con resultados esperados
6. Revisión Humana y Contestación
Revisión humana es obligatoria antes de cualquier resultado de auditoría ser publicado. IA acelera el proceso, pero decisión final es siempre humana.
✅ Proceso de Revisión Humana:
- Análisis inicial por IA: Gemini + DeepSeek procesan 90 criterios (30-60min)
- Validación técnica: Especialista en privacidad revisa evidencias citadas por la IA (1-2h)
- Verificación de consistencia: ¿Score final refleja hallazgos? ¿Recomendaciones tienen sentido? (30min)
- Aprobación para publicación: Solo después de aprobación humana, resultado es visible
📝 Cómo Contestar un Análisis:
Si no está de acuerdo con un resultado de auditoría o cree que hay error, puede solicitar revisión:
1. Entre en Contacto:
Email: privacy@trustthis.org
2. Proporcione Detalles:
- Nombre de la empresa auditada
- Criterio(s) específico(s) contestado(s)
- Evidencia que soporta su posición (link para sección de la política, etc.)
- Por qué cree que el análisis está incorrecto
3. Revisión Independiente:
Segundo especialista (no involucrado en el análisis original) revisa el caso con evidencias de ambas partes.
4. SLA de Respuesta:
- Confirmación de recepción: 2 días útiles
- Análisis preliminar: 5 días útiles
- Revisión completa + respuesta: 10 días útiles
5. Resolución:
Si revisión concluye que análisis estaba incorrecto, score es actualizado y notificación es enviada. Si análisis estaba correcto, proporcionamos justificativa detallada.
🔄 Auditoría 100% Humana (Opcional):
Para clientes enterprise, ofrecemos flujo de auditoría totalmente manual (sin IA) mediante solicitud. Tiempo de entrega: 2-3 semanas. Costo adicional aplicable. Entre en contacto: compliance@trustthis.org
7. Evaluaciones de Impacto de IA (AIA)
Realizamos Evaluaciones de Impacto de IA periódicamente para identificar y mitigar riesgos de sesgo, discriminación y otros impactos adversos.
📊 Cuándo Realizamos AIAs:
- Antes del lanzamiento de nuevo sistema de IA (baseline)
- Cada 6 meses (revisión periódica)
- Después de cambios significativos en modelos o criterios
- Cuando identificamos comportamiento inesperado
- Mediante solicitud de autoridades regulatorias
📈 Métricas de Fairness (Resumen Público):
Última AIA: Octubre 2025 (baseline)
Tasa de Aprobación por Categoría:
- Empresas pequeñas (<50 func.): 32% criterios aprobados
- Empresas medianas (50-500): 38% criterios aprobados
- Empresas grandes (>500): 42% criterios aprobados
- Análisis: Diferencia esperada (empresas mayores tienen más recursos para compliance)
Tasa de Falsos Positivos/Negativos:
- Falsos positivos: ~8% (IA aprueba criterio, pero revisión humana reprueba)
- Falsos negativos: ~12% (IA reprueba, pero dual audit + humano aprueba)
- Meta: Reducir FN a <5% hasta Q2 2026
Informes completos de AIA: Disponibles mediante acuerdo de confidencialidad para investigadores y auditores. Contacto: compliance@trustthis.org
8. Auditabilidad
Entendemos que transparencia incluye permitir auditoría externa de nuestros sistemas de IA.
📂 Lo Que Disponibilizamos (bajo acuerdo de NDA):
- Criterios de decisión: Código fuente de los 90 criterios ISO (ya públicos en
/lib/audit/criteria-definitions-iso.ts) - Logs de procesamiento: Timestamps, modelos usados, versiones (anonimizados)
- Métricas de performance: Latencia, tasa de aprobación, distribución de scores
- Prompts (estructura): Template general de prompts (sin casos específicos)
- Informes de AIA: Evaluaciones de impacto completas
🚫 Alcance y Límites:
- No proporcionamos: Prompts palabra por palabra (evitar gaming), respuestas completas de modelos (propiedad intelectual)
- No permitimos: Ingeniería inversa de modelos propietarios (limitación de proveedores como Google/DeepSeek)
- Auditoría limitada a: Investigadores académicos, auditores certificados, autoridades regulatorias
📧 Cómo Solicitar Acceso para Auditoría:
Entre en contacto: compliance@trustthis.org
Informaciones necesarias:
- Institución/Organización
- Propósito de la auditoría (investigación, compliance, due diligence)
- Alcance deseado (cuáles componentes del sistema)
- Timeline (plazo para conclusión)
9. FAQ de IA
P: ¿Usan datos de mis auditorías para entrenar IA?
R: No. Utilizamos modelos externos preentrenados (Google Gemini, DeepSeek). No entrenamos modelos propios. Solo políticas de privacidad públicas son procesadas. Datos de usuarios nunca son enviados a IA.
P: ¿Puedo confiar 100% en los resultados de IA?
R: No. IA es una herramienta de apoyo, no un oráculo. Por eso tenemos revisión humana obligatoria y sistema de contestación. Siempre revise críticamente los resultados.
P: ¿Cómo garantizan que la IA no es sesgada?
R: Utilizamos dual audit (dos modelos con entrenamientos diferentes), métricas de fairness en AIAs periódicas y revisión humana. Monitoreamos tasa de aprobación por categoría de empresa para detectar sesgo.
P: ¿Qué sucede si la IA comete un error grave?
R: Tenemos proceso de incident response: (1) Corrección inmediata del score, (2) Notificación de usuarios afectados, (3) Análisis de causa raíz, (4) Registro público en changelog de IA, (5) Implementación de mitigaciones para prevenir recurrencia.
P: ¿Puedo optar por auditoría 100% humana (sin IA)?
R: Sí. Para clientes enterprise, ofrecemos flujo manual completo mediante solicitud. Tiempo de entrega: 2-3 semanas vs. 30-60min con IA. Costo adicional aplicable. Contacto: compliance@trustthis.org
P: Mi empresa fue mal evaluada. ¿Puedo contestar?
R: Absolutamente. Tenemos proceso formal de contestación con SLA de 10 días útiles. Vea sección "Revisión Humana y Contestación" arriba o entre en contacto: privacy@trustthis.org
P: ¿Cómo eligen cuáles modelos de IA usar?
R: Evaluamos modelos en suite de 50 casos conocidos. Criterios: precisión, latencia, costo, soporte a context window largo, capacidad de reasoning legal/compliance. Cambios son registrados en changelog.
P: ¿Comparten datos con Google/DeepSeek?
R: Solo políticas de privacidad públicas son enviadas para procesamiento (disponibles en internet). Cache es desactivado (datos no almacenados). DPAs y SCCs en vigor. Ningún dato personal de usuarios es compartido.
💜 Compromiso TrustThis
Transparencia sobre uso de IA es parte esencial de nuestra misión. Si tiene dudas no respondidas aquí, no está de acuerdo con un análisis o desea auditar nuestros sistemas, entre en contacto:
- Revisión de auditoría: privacy@trustthis.org
- Cuestiones técnicas de IA: compliance@trustthis.org
- Contacto general: team@trustthis.org
Esta página es parte de nuestro compromiso con gobernanza responsable de IA y compliance con EU AI Act, NIST AI RMF e ISO 42001.
📖 Documentos Relacionados: