
Microsoft Copilot
Baseado exclusivamente em evidências públicas • 20 critérios (Privacidade + IA)
Última revisão: 10 fev 2026

Resumo de Confiança em IA
- •Em IA: não documenta um mecanismo de contestação de decisões automatizadas, o que pode impactar a confiança dos usuários ao contratar.
- •Em Privacidade Base: garante que os usuários podem gerenciar seu histórico de prompts, proporcionando controle sobre seus dados pessoais.
Alternativas Mais Seguras
Software com melhor avaliação na mesma categoria
Pontos de Atenção em IA (1)
Critérios de IA que requerem atenção. Compre a Análise Premium para ver todos os 1 critérios.
- •Microsoft Copilot
- •Não menciona um processo claro para contestar decisões automatizadas, o que pode comprometer a confiança dos usuários.
- •O uso de dados para treinamento de IA não é totalmente transparente, levantando preocupações sobre a privacidade.
- •É recomendável exigir cláusulas contratuais que abordem esses pontos.
Mecanismo de contestação de decisões de IA não disponível
Não há um processo claro para contestar decisões automatizadas, o que pode impactar a confiança dos usuários.
Fonte: documentos públicos do fornecedor
Conformidades em IA (3)
Critérios de IA que a empresa atende. Compre a Análise Premium para ver todos os 3 critérios.
- •Microsoft Copilot
- •Oferece opt-out claro para treinamento de IA, permitindo maior controle sobre dados.
- •Documenta finalidades do tratamento de dados de forma detalhada, facilitando a compreensão do uso dos dados.
- •Essas práticas fortalecem a due diligence e a confiança na gestão de dados.
Política de retenção de dados de IA claramente documentada
A política permite que o usuário gerencie e exclua o histórico de prompts e respostas de IA, garantindo controle sobre seus dados.
Política de uso de dados para treinamento de IA declarada
A política esclarece que os dados inseridos podem ser usados para treinar e melhorar os modelos de IA, incluindo o Copilot.
Controle de opt-out para treinamento de IA disponível
Os usuários têm a opção de não participar do treinamento de modelos de IA, garantindo maior controle sobre seus dados.
Fonte: documentos públicos do fornecedor
Destaques em Privacidade (3)
Critérios mais relevantes para esta categoria. Compre a Análise Premium para ver todos os 3 critérios.
Papéis de controlador e operador de dados claramente definidos
A política esclarece os papéis da Microsoft como controladora e processadora, aumentando a clareza sobre responsabilidades.
Identidade e contato do controlador de dados claramente informados
A política fornece informações claras sobre como entrar em contato com a Microsoft, facilitando a comunicação.
Canal de contato para questões de privacidade disponível
A política identifica um canal específico para questões de privacidade, facilitando o contato dos usuários.
Fonte: documentos públicos do fornecedor
Alertas Críticos
- •Retenção de prompts e respostas de IA claramente informada: Essencial para garantir que os usuários saibam como seus dados são tratados e possam gerenciá-los..
- •Uso de inteligência artificial claramente declarado no Copilot: Fundamental para que os usuários entendam as capacidades do produto e como ele opera.
Análise de conformidade (20)
Retenção de prompts e respostas de IA claramente informada
Referência: ISO/IEC 42001 (8.2) + ISO/IEC 27701 (7.4.6)
Uso de prompts e respostas de IA para treinamento de IA declarado
Referência: ISO/IEC 42001 (8.2) + ISO/IEC 23894 + EU AI Act
Opt-out de treinamento de IA disponível e claro
Referência: ISO/IEC 42001 (8.3) + ISO/IEC 29100 + EU AI Act
Fonte: documentos públicos do fornecedor
Siga esta empresa e acesse todos os 20 critérios
Acompanhe mudanças nos scores, receba alertas de atualizações e veja a análise completa de conformidade
Não perca nenhuma atualização
Cadastre-se para seguir esta empresa e acompanhar mudanças nos scores de privacidade e IA
Por que confiar no Índice AITS: Open Community Audit
Transparência pública, revisão por pares e trilhas de evidência abertas — tudo verificável pela comunidade
Garantias de confiança
Revisão por pares
usuários, profissionais e especialistas confirmam ou contestam itens on-line.
Histórico público
mudanças de fornecedores e do índice são versionadas e acessíveis.
Participe
Evidências, confirmações e contestações
participe da validação colaborativa dos critérios AITS
Microsoft Copilot: Fortalezas e Desafios em Privacidade e Governança de IA
Fortalezas na Privacidade do Microsoft Copilot
O Microsoft Copilot se destaca em várias áreas relacionadas à privacidade, refletindo seu compromisso com a transparência e o controle do usuário. Com um AITS Privacy Score de 94%, a plataforma oferece funcionalidades que permitem aos usuários gerenciar suas informações de maneira eficaz.
Controle sobre o Histórico de Prompts
Uma das principais fortalezas do Microsoft Copilot é a capacidade que os usuários têm de gerenciar seu histórico de prompts. Isso significa que você pode revisar e excluir interações anteriores, garantindo que seus dados pessoais não sejam retidos sem sua permissão. Essa funcionalidade é crucial para atender às exigências da LGPD e GDPR, que garantem o direito dos usuários de acessar e controlar suas informações pessoais. Para maximizar essa funcionalidade, recomendamos que você regularmente revise seu histórico e exclua informações que não deseja que sejam utilizadas.
Clareza nas Finalidades do Tratamento de Dados
Outro ponto positivo é que o Microsoft Copilot fornece uma lista clara das finalidades do tratamento de dados, categorizando as informações coletadas. Isso ajuda os usuários a entenderem como seus dados estão sendo utilizados, promovendo uma maior confiança na plataforma. Para garantir que você esteja ciente de como seus dados estão sendo tratados, é aconselhável revisar a política de privacidade da Microsoft e as categorias de dados listadas, garantindo que você concorde com as finalidades apresentadas.
Fraquezas na Privacidade do Microsoft Copilot
Apesar das suas fortalezas, o Microsoft Copilot também apresenta algumas fraquezas que os usuários devem considerar. A ausência de um mecanismo de contestação de decisões automatizadas pode impactar negativamente a confiança dos usuários na plataforma, especialmente em um ambiente corporativo onde decisões baseadas em IA são cada vez mais comuns.
Falta de Mecanismo de Contestação
A ausência de um mecanismo de contestação para decisões automatizadas significa que, caso uma decisão tomada pelo Copilot não seja do seu agrado, você pode não ter um canal claro para contestá-la. Isso pode ser preocupante, especialmente para empresas que dependem de decisões automatizadas para operações críticas. Para mitigar esse risco, é importante que você documente suas interações e decisões tomadas pela IA, para que possa ter um registro caso precise contestar alguma decisão no futuro.
Retenção de Dados de Prompts
Outro ponto a ser considerado é a retenção de prompts e respostas de IA, que é claramente informada, mas pode gerar preocupações sobre a privacidade. Embora a transparência seja um aspecto positivo, a retenção de dados pode ser vista como uma vulnerabilidade se não for gerida adequadamente. Para proteger seus dados, considere ajustar suas configurações de privacidade e limitar a quantidade de informações sensíveis que você compartilha com a IA. Além disso, é recomendável que você consulte as diretrizes da Microsoft sobre como gerenciar a retenção de dados.
Orientações Práticas para Usuários do Microsoft Copilot
Para maximizar sua experiência com o Microsoft Copilot e garantir que suas informações pessoais estejam protegidas, existem algumas orientações práticas que você pode seguir.
Ajustes nas Configurações de Privacidade
Primeiramente, é fundamental que você revise e ajuste suas configurações de privacidade. Acesse as configurações do Copilot e verifique as opções disponíveis para gerenciar seu histórico de prompts e as permissões de uso de dados. Certifique-se de que você tenha optado por não participar do treinamento de IA, caso essa opção esteja disponível, para evitar que suas interações sejam utilizadas para melhorar a IA sem seu consentimento.
Alternativas e Precauções
Além disso, considere explorar alternativas ao Microsoft Copilot que possam oferecer um maior controle sobre suas informações. Pesquise outras ferramentas que tenham mecanismos de contestação de decisões automatizadas e que garantam uma retenção mínima de dados. Por fim, mantenha-se informado sobre as atualizações de políticas de privacidade e práticas de governança de IA, pois essas informações podem impactar diretamente seus direitos sob a LGPD e GDPR. Ao seguir essas orientações, você pode utilizar o Microsoft Copilot de maneira mais segura e informada.
Outros softwares de Aplicativos de IA
Mergulhe em pesquisas e análises profundas de cada player
Fonte: documentos públicos do fornecedor
Fontes Analisadas
Documentos públicos utilizados na auditoria da Microsoft Copilot:
Evidências, confirmações e contestações
participe da validação colaborativa dos critérios AITS
Escopo & Limitações
As avaliações da TrustThis/AITS baseiam-se exclusivamente em informações publicamente disponíveis, devidamente citadas com data e URL, conforme a metodologia AITS (transparência em privacidade & IA).
O conteúdo possui natureza indicativa, destinado à triagem e comparação, não substituindo auditorias internas.
A TrustThis/AITS não executa testes invasivos, não acessa ambientes tecnológicos de fornecedores e não realiza tratamento de dados pessoais de clientes. As conclusões refletem apenas a comunicação pública do fornecedor na data da coleta.
Fonte: documentos públicos do fornecedor






