

Jasper AI
Baseado exclusivamente em evidências públicas • 20 critérios (Privacidade + IA)
Última revisão: 13 fev 2026
Resumo de Confiança em IA
- •Em IA: não declara explicitamente o uso de inteligência artificial nas funcionalidades, o que pode gerar desconfiança para quem contrata.
- •Em Privacidade Base: não menciona o prazo de retenção de prompts e respostas de IA, impactando a confiança dos usuários.
Alternativas Mais Seguras
Software com melhor avaliação na mesma categoria
Pontos de Atenção em IA (3)
Critérios de IA que requerem atenção. Compre a Análise Premium para ver todos os 3 critérios.
- •Jasper AI
- •retém prompts e respostas de IA sem prazo definido, o que pode impactar a confiança dos usuários.
- •não documenta compromissos com IA ética, expondo riscos de viés e discriminação.
- •é recomendável exigir cláusulas contratuais que abordem retenção de dados e práticas éticas em IA.
Retenção de dados de IA (prompts e respostas) não é informada
A falta de informações sobre o tempo de retenção de prompts e textos gerados pode impactar a transparência e a confiança dos usuários.
Uso de inteligência artificial não é declarado nas políticas
A falta de declaração sobre o uso de IA nas funcionalidades pode gerar desconfiança e falta de transparência para os usuários.
Princípios de IA ética e medidas anti-viés não documentados
A ausência de compromissos com práticas éticas em IA pode resultar em riscos de viés e discriminação, impactando a reputação da empresa.
Fonte: documentos públicos do fornecedor
Conformidades em IA (3)
Critérios de IA que a empresa atende. Compre a Análise Premium para ver todos os 3 critérios.
- •Jasper AI
- •documenta claramente os papéis de controlador e operador de dados, facilitando a responsabilidade no tratamento de dados.
- •disponibiliza um Acordo de Processamento de Dados (DPA) para clientes empresariais, garantindo proteção dos dados.
- •essas práticas promovem maior segurança e transparência na relação com os clientes.
Política de uso de dados para treinamento de IA declarada
A ausência de uma declaração clara sobre o uso de prompts e textos gerados para treinamento de IA pode gerar incertezas sobre a privacidade dos usuários.
Controle de opt-out para treinamento de IA disponível
A política oferece opções de opt-out, mas não é clara sobre a exclusão de prompts e textos gerados para treinamento de IA, o que pode afetar a escolha do usuário.
Decisões automatizadas por IA explicadas de forma compreensível
A política menciona personalização, mas não fornece detalhes sobre como as decisões são tomadas, o que pode gerar incertezas para os usuários.
Fonte: documentos públicos do fornecedor
Destaques em Privacidade (3)
Critérios mais relevantes para esta categoria. Compre a Análise Premium para ver todos os 3 critérios.
Papéis de controlador e operador de dados claramente definidos
A definição clara dos papéis de controlador e operador de dados é essencial para a conformidade e a responsabilidade no tratamento de dados.
Identidade e contato do controlador de dados claramente informados
A identificação clara do controlador de dados facilita o contato dos usuários em questões de privacidade, aumentando a transparência.
Canal de contato para questões de privacidade disponível
A disponibilidade de um canal de contato específico para questões de privacidade é fundamental para que os usuários possam exercer seus direitos.
Fonte: documentos públicos do fornecedor
Alertas Críticos
- •Uso de inteligência artificial não é declarado nas políticas: A transparência sobre o uso de IA é fundamental para a confiança do usuário e conformidade regulatória..
- •Princípios de IA ética e medidas anti-viés não documentados: Compromissos éticos são essenciais para a responsabilidade social e a confiança do usuário.
Análise de conformidade (20)
Retenção de prompts e respostas de IA sem prazo definido
Referência: ISO/IEC 42001 (8.2) + ISO/IEC 27701 (7.4.6)
Política de uso de dados para treinamento de IA declarada
Referência: ISO/IEC 42001 (8.2) + ISO/IEC 23894 + EU AI Act
Controle de opt-out para treinamento de IA disponível
Referência: ISO/IEC 42001 (8.3) + ISO/IEC 29100 + EU AI Act
Fonte: documentos públicos do fornecedor
Siga esta empresa e acesse todos os 20 critérios
Acompanhe mudanças nos scores, receba alertas de atualizações e veja a análise completa de conformidade
Não perca nenhuma atualização
Cadastre-se para seguir esta empresa e acompanhar mudanças nos scores de privacidade e IA
Por que confiar no Índice AITS: Open Community Audit
Transparência pública, revisão por pares e trilhas de evidência abertas — tudo verificável pela comunidade
Garantias de confiança
Revisão por pares
usuários, profissionais e especialistas confirmam ou contestam itens on-line.
Histórico público
mudanças de fornecedores e do índice são versionadas e acessíveis.
Participe
Evidências, confirmações e contestações
participe da validação colaborativa dos critérios AITS
Outros softwares de Aplicativos de IA
Mergulhe em pesquisas e análises profundas de cada player
Fonte: documentos públicos do fornecedor
Fontes Analisadas
Documentos públicos utilizados na auditoria da Jasper AI:
Evidências, confirmações e contestações
participe da validação colaborativa dos critérios AITS
Escopo & Limitações
As avaliações da TrustThis/AITS baseiam-se exclusivamente em informações publicamente disponíveis, devidamente citadas com data e URL, conforme a metodologia AITS (transparência em privacidade & IA).
O conteúdo possui natureza indicativa, destinado à triagem e comparação, não substituindo auditorias internas.
A TrustThis/AITS não executa testes invasivos, não acessa ambientes tecnológicos de fornecedores e não realiza tratamento de dados pessoais de clientes. As conclusões refletem apenas a comunicação pública do fornecedor na data da coleta.
Fonte: documentos públicos do fornecedor





