Skip to main content
Anthropic Claude logo

Anthropic Claude

Baseado exclusivamente em evidências públicas • 20 critérios (Privacidade + IA)
Última revisão: 10 fev 2026

A+
AITS IA
Privacy Rating by TrustThis — Verified Seal A+

Resumo de Confiança em IA

Treinamento de IA
SIM, por padrão
Retenção de Dados
Período: 30 dias
Opt-out
Configurações > Privacidade > IA
Privacidadede IA
A+
PrivacidadeBase
A+
  • Em IA: não detalha a lógica algorítmica específica de como decisões complexas são tomadas, o que pode gerar incertezas para contratantes.
  • Em Privacidade Base: não disponibiliza um Acordo de Processamento de Dados (DPA) para clientes, o que pode comprometer a segurança dos dados tratados.

Alternativas Mais Seguras

Software com melhor avaliação na mesma categoria

Ver Comparação Completa de Alternativas

Conformidades em IA (3)

Critérios de IA que a empresa atende. Compre a Análise Premium para ver todos os 3 critérios.

  • Anthropic Claude
  • documenta o uso de Inputs e Outputs para treinar modelos, garantindo clareza sobre o tratamento dos dados.
  • disponibiliza um mecanismo de opt-out para o treinamento de IA, permitindo maior controle ao usuário.
  • essas práticas fortalecem a due diligence em relação à privacidade e uso de IA.

Política de retenção de dados de IA claramente documentada

A política informa que o usuário pode excluir conversas individuais, que são removidas imediatamente do histórico e excluídas do back-end em 30 dias.

Controle de opt-out para treinamento de IA disponível

Oferece um mecanismo de opt-out específico para o treinamento de modelos através das configurações da conta, permitindo maior controle ao usuário.

Política de uso de dados para treinamento de IA declarada

Declara explicitamente o uso de Inputs e Outputs para treinar modelos e melhorar os serviços, garantindo clareza sobre o tratamento dos dados.

Fonte: documentos públicos do fornecedor

Destaques em Privacidade (3)

Critérios mais relevantes para esta categoria. Compre a Análise Premium para ver todos os 3 critérios.

Acordo de Processamento de Dados (DPA) não disponível para clientes

A política menciona que a Anthropic atua como processadora de dados, mas não fornece um link direto ou detalhes explícitos de um DPA.

Papéis de controlador e operador de dados claramente definidos

Distingue claramente os papéis de Controlador e Processador, definindo o escopo de aplicação da política.

Identidade e contato do controlador de dados claramente informados

Fornece a identidade legal completa e endereços físicos de contato, promovendo a transparência.

Fonte: documentos públicos do fornecedor

Alertas Críticos

  • Decisões automatizadas por IA explicadas de forma compreensível: Importante para a transparência nas decisões automatizadas..
  • Funcionalidades de IA claramente identificadas com suas finalidades: Ajuda a entender como as interações com o sistema são processadas e utilizadas.

Análise de conformidade (20)

Funcionalidade Premium
Critério AITS 1
Conforme

Prazo de eliminação de prompts e respostas de IA claramente definido

Referência: ISO/IEC 42001 (8.2) + ISO/IEC 27701 (7.4.6)

Critério AITS 3
Conforme

Controle de opt-out para treinamento de IA disponível

Referência: ISO/IEC 42001 (8.3) + ISO/IEC 29100 + EU AI Act

Critério AITS 2
Conforme

Política de uso de prompts e respostas de IA para treinamento de IA declarada

Referência: ISO/IEC 42001 (8.2) + ISO/IEC 23894 + EU AI Act

Fonte: documentos públicos do fornecedor

Siga esta empresa e acesse todos os 20 critérios

Acompanhe mudanças nos scores, receba alertas de atualizações e veja a análise completa de conformidade

Cadastre-se grátis

Não perca nenhuma atualização

Cadastre-se para seguir esta empresa e acompanhar mudanças nos scores de privacidade e IA

Cadastre-se grátis

Por que confiar no Índice AITS: Open Community Audit

Transparência pública, revisão por pares e trilhas de evidência abertas — tudo verificável pela comunidade

Garantias de confiança

Revisão por pares

usuários, profissionais e especialistas confirmam ou contestam itens on-line.

Histórico público

mudanças de fornecedores e do índice são versionadas e acessíveis.

Participe

Evidências, confirmações e contestações

participe da validação colaborativa dos critérios AITS

Fale com a gente

Anthropic Claude: Avaliação de Privacidade e Segurança em IA

Força 1: Transparência nas Práticas de Uso de IA

A Anthropic Claude se destaca pela sua política clara sobre o uso de prompts e respostas de IA para treinamento. Essa transparência é fundamental para os usuários, pois permite que eles compreendam como seus dados estão sendo utilizados. Com um score de 92% em privacidade, a plataforma demonstra um compromisso em informar os usuários sobre o tratamento de suas informações. Isso é especialmente relevante para empresas que precisam garantir conformidade com a LGPD e a GDPR, pois a clareza nas práticas de dados é um requisito essencial para a proteção dos direitos dos usuários.

Força 2: Controle de Opt-out para Treinamento de IA

Outro ponto positivo é a disponibilidade de um controle de opt-out para o treinamento de IA. Isso significa que os usuários têm a opção de não permitir que seus dados sejam utilizados para melhorar os algoritmos da plataforma. Essa funcionalidade é crucial para aqueles que buscam maior controle sobre suas informações pessoais. Ao habilitar essa opção, os usuários podem mitigar riscos associados ao uso indevido de dados, garantindo que suas informações não sejam utilizadas sem consentimento explícito.

Fraqueza 1: Ausência de Acordo de Processamento de Dados (DPA)

Uma das principais fraquezas da Anthropic Claude é a falta de um Acordo de Processamento de Dados (DPA) para clientes. Isso é preocupante, pois um DPA é um documento legal que estabelece as responsabilidades de ambas as partes em relação ao tratamento de dados pessoais. Sem esse acordo, os usuários podem ficar vulneráveis a riscos legais e de segurança. Para mitigar essa fraqueza, recomenda-se que os usuários considerem a implementação de medidas adicionais de segurança, como criptografia de dados e auditorias regulares, para proteger suas informações.

Fraqueza 2: Falta de Clareza nas Decisões Automatizadas

Outro ponto a ser observado é que as decisões automatizadas feitas pela IA não são explicadas de forma compreensível. Isso pode gerar incertezas para os usuários, especialmente em contextos onde a transparência é crucial. A falta de clareza pode dificultar a compreensão de como as decisões são tomadas, o que pode impactar a confiança dos usuários na plataforma. Para contornar essa questão, é aconselhável que os usuários solicitem mais informações sobre os processos de decisão e busquem alternativas que ofereçam maior transparência.

Orientação Prática 1: Verificação de Configurações de Privacidade

Para garantir que suas informações estejam protegidas, os usuários devem revisar as configurações de privacidade disponíveis na plataforma. Isso inclui habilitar o controle de opt-out e verificar se o prazo de eliminação de prompts e respostas de IA está sendo respeitado. Manter-se informado sobre essas configurações pode ajudar a maximizar a segurança dos dados e garantir que a plataforma atue de acordo com as diretrizes da LGPD e da GDPR.

Orientação Prática 2: Considerações sobre Alternativas

Dado que a Anthropic Claude apresenta algumas fraquezas significativas, os usuários devem considerar alternativas que ofereçam um DPA e maior clareza nas decisões automatizadas. Pesquisar plataformas que priorizam a transparência e a conformidade com as normas de privacidade pode ser uma estratégia eficaz para garantir a segurança dos dados. Além disso, é importante que os usuários se mantenham atualizados sobre as práticas de privacidade da Anthropic Claude e estejam prontos para ajustar suas estratégias de segurança conforme necessário.

Outros softwares de Aplicativos de IA

Mergulhe em pesquisas e análises profundas de cada player

Fonte: documentos públicos do fornecedor

Evidências, confirmações e contestações

participe da validação colaborativa dos critérios AITS

Fale com a gente

Escopo & Limitações

As avaliações da TrustThis/AITS baseiam-se exclusivamente em informações publicamente disponíveis, devidamente citadas com data e URL, conforme a metodologia AITS (transparência em privacidade & IA).

O conteúdo possui natureza indicativa, destinado à triagem e comparação, não substituindo auditorias internas.

A TrustThis/AITS não executa testes invasivos, não acessa ambientes tecnológicos de fornecedores e não realiza tratamento de dados pessoais de clientes. As conclusões refletem apenas a comunicação pública do fornecedor na data da coleta.

Fonte: documentos públicos do fornecedor