Claude Anthropic mudou sua política em 2025 permitindo treino com dados de usuários por padrão. Descubra por que monitorar políticas é governança essencial.
Trust This Team

Em agosto de 2025, a Anthropic anunciou mudanças significativas nos termos de uso do Claude para usuários consumidores. A principal alteração? Conversas passariam a ser usadas para treinar modelos de IA, com opt-out disponível, mas não como padrão. Além disso, o prazo de retenção de dados saltou para 5 anos.
Se você acha que isso não afeta sua empresa porque usa contas corporativas, pense duas vezes. O problema não é apenas o que mudou, mas o fato de que mudou sem alarde e você pode não ter percebido a tempo.
Este caso ecoa o que aconteceu com o Slack em maio de 2024, quando a plataforma atualizou sua política para treinar modelos globais com dados de mensagens dos usuários \- também por opt-out via e-mail ao suporte, não por configuração no painel.
A lição é clara: políticas públicas de privacidade mudam. Mudam discretamente. E quando você descobre, seus dados podem já ter sido processados de formas que sua empresa não autorizou.
A atualização dos termos do Claude trouxe três mudanças críticas que passaram despercebidas por muitos usuários:
Uso de conversas para treinamento de IA
Antes, conversas de usuários gratuitos não eram utilizadas para treinar modelos. Após a mudança, transcripts de chats passaram a alimentar o desenvolvimento de futuros modelos Claude \- a menos que o usuário optasse ativamente por sair. Isso inverte a lógica de consentimento: em vez de pedir permissão, a Anthropic assumiu que todos concordavam por padrão.
Retenção estendida de 5 anos
O prazo de armazenamento de dados aumentou significativamente. Conversas que antes tinham ciclos de vida mais curtos agora podem permanecer nos servidores da Anthropic por até cinco anos. Para empresas preocupadas com minimização de dados e exposição de longo prazo, isso é uma bandeira vermelha.
Exclusões para contas comerciais \- mas com ressalvas
A Anthropic foi explícita: usuários pagantes (Pro, Team e Enterprise) não teriam seus dados usados para treinar modelos. Mas aqui está o problema: se colaboradores da sua empresa usam contas gratuitas pessoais para testar prompts ou acelerar trabalhos, essas interações não estão protegidas. E você provavelmente não monitora isso.
A documentação oficial deixa claro: "For Consumers who do not opt-out, we may now use Feedback to help develop and improve our Services". Feedback, no contexto deles, inclui suas conversas completas.
Antes do Claude, o Slack já havia testado os limites da transparência com uma atualização silenciosa em sua política de uso de IA.
O problema do "global model" e a confusão gerada
Em maio de 2024, usuários descobriram que o Slack estava treinando "modelos de IA e ML" com dados de canais e mensagens diretas. A empresa chamou isso de "global model" \- um termo vago que gerou pânico imediato. Empresas temeram que suas informações confidenciais estivessem sendo compartilhadas entre organizações.
A reação foi tão intensa que o Slack teve que publicar esclarecimentos: os modelos eram para busca e recomendações dentro da própria organização, não treinamento externo generalizado. Mas o estrago estava feito.
Opt-out por e-mail: uma barreira intencional?
O processo de exclusão não era simples. Não havia um botão no painel de administração. Era necessário enviar um e-mail formal ao suporte do Slack solicitando a desativação. Para grandes corporações com múltiplos workspaces, isso significava um processo manual, demorado e propenso a falhas.
Muitos administradores de TI e DPOs só souberam da mudança semanas depois, quando a notícia viralizou em redes sociais e publicações especializadas como TechCrunch e Ars Technica.
A revisão forçada de linguagem
Após o backlash, o Slack ajustou a linguagem de sua política, tornando-a "mais clara" \- mas as práticas subjacentes permaneceram. A lição? Mudanças podem ser revertidas ou refinadas sob pressão, mas apenas se forem detectadas a tempo.
Ignorar mudanças em políticas de privacidade não é apenas desleixo operacional. É um risco de governança com consequências tangíveis.
Violação involuntária de contratos e cláusulas de proteção de dados
Muitos contratos corporativos incluem cláusulas específicas sobre uso de dados, retenção limitada e proibição de treinamento de IA com informações da empresa. Se um fornecedor altera sua política e você não age, pode estar inadvertidamente violando seus próprios acordos com clientes ou parceiros.
Imagine explicar a um cliente do setor financeiro ou de saúde que dados sensíveis foram usados para treinar um modelo de IA porque você não percebeu uma atualização de termos de uso.
Exposição a auditorias e penalidades regulatórias
Autoridades de proteção de dados como a ANPD (Brasil) e ICO (Reino Unido) esperam que controladores de dados implementem monitoramento contínuo de fornecedores. A LGPD e o GDPR exigem que você saiba como terceiros tratam os dados que você compartilha.
Não saber de uma mudança crítica não é defesa válida. É evidência de falha na due diligence.
Perda de confiança e danos reputacionais
Quando colaboradores ou clientes descobrem que seus dados foram processados de formas não autorizadas \- mesmo que tecnicamente dentro de termos atualizados \- a confiança é abalada. E recuperar reputação custa muito mais do que implementar um sistema de monitoramento.
Monitorar manualmente centenas de fornecedores é inviável. A boa notícia é que existem práticas e ferramentas que transformam essa tarefa em algo gerenciável.
Inventário atualizado com criticidade atribuída
Comece mapeando todos os softwares e serviços que sua empresa usa. Classifique-os por criticidade:
Priorize o monitoramento dos fornecedores de criticidade alta.
Automação com alertas configuráveis
Ferramentas como a Trust This utilizam IA para rastrear alterações em políticas de privacidade e termos de uso. Quando uma mudança relevante é detectada \- como adição de uso de dados para treinamento de IA \- você recebe um alerta com diff (comparação lado a lado) do que mudou.
Isso elimina a necessidade de revisão manual periódica e garante resposta em tempo hábil.
Integração com fluxos de compras e renovação
O momento de maior influência é antes da assinatura ou na renovação. Integre o monitoramento ao seu processo de procurement:
Definição de red flags e thresholds de ação
Nem toda mudança exige ação imediata. Estabeleça critérios claros:
Não é necessário construir tudo do zero. Existem recursos consolidados que facilitam a implementação de governança de privacidade.
O índice AITS da Trust This
O AITS (AI Trust Score) avalia softwares em 20 critérios baseados em LGPD, GDPR e normas ISO de privacidade e IA. Ele oferece:
Isso permite que times de Compras, Compliance e TI tomem decisões baseadas em dados, não em impressões.
Checklists de due diligence e RFI mínimo
A Trust This disponibiliza modelos de RFI (Request for Information) focados em privacidade e IA, com 24 perguntas essenciais que qualquer fornecedor deveria responder antes da contratação.
Isso padroniza a avaliação inicial e cria uma baseline documentada para comparação futura.
Monitoramento de incidentes públicos
Além de políticas, é crucial acompanhar breaches e incidentes reportados publicamente. Ferramentas de monitoramento agregam notificações de autoridades regulatórias, postmortems públicos e alertas de segurança relacionados aos seus fornecedores.
O monitoramento de políticas não é responsabilidade exclusiva de uma área. Cada stakeholder tem um papel específico.
Compras e Procurement: Critério de desempate objetivo
Quando dois fornecedores parecem equivalentes em funcionalidade e preço, o score de privacidade pode ser o diferencial. Use o AITS como critério defensável em comitês de decisão e negocie cláusulas mais robustas quando detectar gaps na política.
DPO e Jurídico: Base para pareceres e cláusulas contratuais
Alertas de mudanças em políticas são gatilhos para revisitar pareceres anteriores. Se uma ferramenta aprovada há 6 meses agora retém dados por 5 anos, isso pode exigir:
TI e Segurança: Priorização de análises técnicas profundas
Nem todo software precisa de um pentest ou análise de vulnerabilidade completa. Use o score de privacidade para priorizar onde investir recursos limitados de segurança. Ferramentas com red flags em compartilhamento de dados ou retenção excessiva merecem escrutínio maior.
Receber um alerta é apenas o começo. A resposta eficaz segue um protocolo claro.
Avaliação de impacto imediato
Reúna as áreas envolvidas (Compliance, TI, Compras, Jurídico) e responda:
Comunicação com o fornecedor
Em muitos casos, mudanças afetam apenas contas gratuitas ou podem ser revertidas mediante solicitação. Entre em contato com seu CSM (Customer Success Manager) ou suporte técnico:
Registro e documentação
Mantenha um log de:
Isso serve como evidência de due diligence em auditorias futuras.
Plano de contingência e migração
Se a mudança for inaceitável e não houver solução negociada, prepare um plano de migração para fornecedor alternativo. O AITS facilita isso ao fornecer comparativos prontos por categoria.
Praticamente toda política de privacidade inclui a frase: "Podemos atualizar estes termos periodicamente". Mas isso não isenta sua empresa de responsabilidade.
A obrigação legal de monitoramento contínuo
O artigo 42 da LGPD estabelece que controladores são responsáveis por danos causados por tratamento inadequado \- mesmo quando realizado por terceiros. Isso significa que você não pode simplesmente confiar cegamente em um fornecedor após a contratação inicial.
A jurisprudência europeia sob GDPR reforça: due diligence é um processo contínuo, não um evento único.
O custo real de não monitorar
Considere o cenário: você descobre 6 meses depois que dados de colaboradores foram usados para treinar IA porque ninguém revisou a política atualizada. Agora você precisa:
O custo de monitoramento preventivo é uma fração disso.
Transformando obrigação em vantagem competitiva
Empresas que monitoram proativamente constroem reputação de governança sólida. Isso se traduz em:
Os casos do Claude Anthropic e do Slack não são exceções. São a nova normalidade em um mercado onde IA generativa redefine constantemente os limites do tratamento de dados.
Políticas públicas vão continuar mudando. Fornecedores vão buscar maximizar o uso de dados dentro do que a lei permite. E a responsabilidade de proteger sua empresa e seus stakeholders é sua \- não deles.
A pergunta não é "será que meus fornecedores vão mudar as políticas?". A pergunta é: "quando mudarem, quanto tempo você vai demorar para descobrir?"
Comece hoje. Mapeie seus fornecedores críticos. Implemente alertas automatizados. Integre o monitoramento aos seus fluxos de compras e renovação. E transforme compliance reativo em governança proativa.
Porque quando se trata de privacidade, descobrir tarde demais não é apenas um problema operacional. É uma falha de liderança.
Conheça o AITS da Trust This e veja como monitorar dezenas de fornecedores em minutos, não em meses.