
OpenAI ChatGPT
Baseado exclusivamente em evidências públicas • 20 critérios (Privacidade + IA)
Última revisão: 10 fev 2026

Resumo de Confiança em IA
- •Em IA: não menciona compromissos com o uso ético de IA, o que gera incertezas sobre viés e discriminação.
- •Em Privacidade Base: não especifica salvaguardas para transferências internacionais, o que pode impactar a segurança dos dados corporativos.
Alternativas Mais Seguras
Software com melhor avaliação na mesma categoria
Pontos de Atenção em IA (1)
Critérios de IA que requerem atenção. Compre a Análise Premium para ver todos os 1 critérios.
- •OpenAI ChatGPT
- •Não documenta princípios de ética em IA, o que pode gerar preocupações sobre viés e discriminação.
- •Não especifica quais salvaguardas são aplicadas para transferência internacional de dados, gerando incertezas.
- •Exigir esclarecimentos sobre ética em IA e salvaguardas contratuais pode mitigar riscos.
Princípios de IA ética e medidas anti-viés não documentados
A política não menciona compromissos com o uso ético de IA, o que pode gerar preocupações sobre viés e discriminação.
Fonte: documentos públicos do fornecedor
Conformidades em IA (3)
Critérios de IA que a empresa atende. Compre a Análise Premium para ver todos os 3 critérios.
- •OpenAI ChatGPT
- •Oferece controle de opt-out para treinamento de IA, permitindo que usuários decidam sobre o uso de seus dados.
- •Detalha o prazo de retenção de chats temporários por até 30 dias, garantindo segurança e direitos de exclusão.
- •Essas práticas fortalecem a due diligence em relação à privacidade dos dados.
Política de retenção de dados de IA claramente documentada
A política informa que chats temporários do ChatGPT são mantidos por até 30 dias, garantindo segurança e direitos de exclusão.
Política de uso de dados para treinamento de IA declarada
A política informa que o conteúdo fornecido pode ser utilizado para treinar os modelos, impactando a melhoria do serviço.
Controle de opt-out para treinamento de IA disponível
A política menciona que o usuário pode optar por não permitir o uso de seu conteúdo para treinamento, garantindo controle sobre seus dados.
Fonte: documentos públicos do fornecedor
Destaques em Privacidade (3)
Critérios mais relevantes para esta categoria. Compre a Análise Premium para ver todos os 3 critérios.
Salvaguardas para transferência internacional não são mencionadas
A política menciona o uso de mecanismos legais, mas não especifica quais salvaguardas são aplicadas, gerando incertezas.
Papéis de controlador e operador de dados claramente definidos
A política define claramente a entidade responsável pelo tratamento de dados, diferenciando entre serviços de consumo e comerciais.
Identidade e contato do controlador de dados claramente informados
A política identifica a OpenAI OpCo, LLC como controladora, com informações de contato disponíveis para questões de privacidade.
Fonte: documentos públicos do fornecedor
Alertas Críticos
- •Salvaguardas para transferência internacional não são mencionadas: Importante para garantir a segurança dos dados em transferências internacionais..
- •Legítimo interesse com balanceamento de direitos claramente explicado: Importante para a transparência sobre o uso de dados sob legítimo interesse.
Análise de conformidade (20)
Prazo de retenção de prompts e respostas de IA claramente definido
Referência: ISO/IEC 42001 (8.2) + ISO/IEC 27701 (7.4.6)
Uso de prompts e respostas para treinamento de IA claramente declarado
Referência: ISO/IEC 42001 (8.2) + ISO/IEC 23894 + EU AI Act
Controle de opt-out para treinamento de IA disponível
Referência: ISO/IEC 42001 (8.3) + ISO/IEC 29100 + EU AI Act
Fonte: documentos públicos do fornecedor
Siga esta empresa e acesse todos os 20 critérios
Acompanhe mudanças nos scores, receba alertas de atualizações e veja a análise completa de conformidade
Não perca nenhuma atualização
Cadastre-se para seguir esta empresa e acompanhar mudanças nos scores de privacidade e IA
Por que confiar no Índice AITS: Open Community Audit
Transparência pública, revisão por pares e trilhas de evidência abertas — tudo verificável pela comunidade
Garantias de confiança
Revisão por pares
usuários, profissionais e especialistas confirmam ou contestam itens on-line.
Histórico público
mudanças de fornecedores e do índice são versionadas e acessíveis.
Participe
Evidências, confirmações e contestações
participe da validação colaborativa dos critérios AITS
Privacidade e Governança de IA no OpenAI ChatGPT: O Que Você Precisa Saber
Forças na Privacidade do OpenAI ChatGPT
O OpenAI ChatGPT apresenta um AITS Privacy Score de 75%, o que indica que, em geral, a plataforma tem práticas de privacidade relativamente robustas. Um dos principais pontos fortes é o controle de opt-out para o treinamento de IA. Isso significa que os usuários têm a opção de não permitir que seus dados sejam utilizados para treinar modelos de IA. Essa funcionalidade é crucial para empresas que desejam manter um maior controle sobre suas informações sensíveis. Para ativar essa opção, os usuários devem acessar as configurações de privacidade na plataforma e garantir que a opção de opt-out esteja habilitada.
Outro aspecto positivo é a transparência em relação ao uso de prompts e respostas para o treinamento de IA. O OpenAI ChatGPT documenta claramente como os dados são utilizados, o que é um bom indicativo de conformidade com regulamentações como a LGPD e a GDPR. Para empresas que operam em ambientes regulados, essa clareza ajuda a garantir que os dados dos clientes sejam tratados de maneira ética e responsável. É recomendável que os usuários revisem regularmente as políticas de uso para se manterem informados sobre quaisquer mudanças.
Compromissos de Retenção de Dados
Além disso, o OpenAI ChatGPT estabelece um prazo de retenção de prompts e respostas de IA, o que é uma prática positiva para a privacidade. Isso significa que os dados não são armazenados indefinidamente, reduzindo o risco de exposição em caso de violação de dados. As empresas devem verificar as configurações de retenção de dados para garantir que estão alinhadas com suas políticas internas e com as exigências da LGPD. Essa prática não apenas ajuda a mitigar riscos, mas também demonstra um compromisso com a proteção dos dados dos usuários.
Fraquezas na Privacidade do OpenAI ChatGPT
Apesar de suas forças, o OpenAI ChatGPT possui fraquezas significativas que os usuários devem considerar. Uma das principais preocupações é a falta de documentação sobre princípios éticos de IA. A ausência de compromissos claros em relação ao uso ético da IA pode gerar incertezas sobre como a plataforma lida com questões de viés e discriminação. Para mitigar esse risco, os usuários devem estar cientes dos dados que estão inserindo na plataforma e considerar a realização de auditorias internas para avaliar a conformidade com as diretrizes éticas.
Outro ponto fraco é a falta de salvaguardas documentadas para transferências internacionais de dados. Isso é especialmente relevante para empresas que operam globalmente e precisam garantir que os dados de seus clientes estejam protegidos em conformidade com a LGPD e a GDPR. É aconselhável que as empresas consultem especialistas em proteção de dados para entender melhor as implicações de transferências internacionais e considerar a implementação de medidas adicionais de segurança, como criptografia e contratos de proteção de dados.
Legítimo Interesse e Balanceamento de Direitos
Além disso, a falta de clareza sobre o legítimo interesse e o balanceamento de direitos pode ser uma preocupação. O OpenAI ChatGPT não fornece informações suficientes sobre como os direitos dos usuários são considerados em relação ao uso de seus dados. Para empresas, isso significa que é crucial revisar as práticas de coleta e uso de dados, garantindo que estejam alinhadas com as expectativas dos usuários e as exigências legais. Os usuários devem considerar a implementação de políticas de transparência que expliquem como os dados são utilizados e quais direitos os usuários têm.
Orientações Práticas para Usuários
Para maximizar a segurança e a privacidade ao usar o OpenAI ChatGPT, os usuários devem revisar as configurações de privacidade e segurança regularmente. Isso inclui verificar as opções de opt-out, entender os prazos de retenção de dados e estar cientes de como os dados são utilizados. Além disso, é recomendável que as empresas realizem treinamentos para suas equipes sobre as melhores práticas em privacidade e proteção de dados, especialmente em relação ao uso de IA.
Outra orientação prática é considerar alternativas ao OpenAI ChatGPT que possam oferecer maior transparência em relação aos princípios éticos de IA e salvaguardas para transferências internacionais. Embora o OpenAI ChatGPT tenha um AITS AI Score de 88%, que indica um bom desempenho em termos de governança de IA, a falta de clareza em algumas áreas pode levar os usuários a explorar outras opções que atendam melhor às suas necessidades de conformidade e ética. Ao fazer isso, as empresas podem garantir que estão utilizando ferramentas que não apenas atendem às suas necessidades operacionais, mas também respeitam os direitos dos usuários e as regulamentações aplicáveis.
Outros softwares de Aplicativos de IA
Mergulhe em pesquisas e análises profundas de cada player
Fonte: documentos públicos do fornecedor
Fontes Analisadas
Documentos públicos utilizados na auditoria da OpenAI ChatGPT:
Evidências, confirmações e contestações
participe da validação colaborativa dos critérios AITS
Escopo & Limitações
As avaliações da TrustThis/AITS baseiam-se exclusivamente em informações publicamente disponíveis, devidamente citadas com data e URL, conforme a metodologia AITS (transparência em privacidade & IA).
O conteúdo possui natureza indicativa, destinado à triagem e comparação, não substituindo auditorias internas.
A TrustThis/AITS não executa testes invasivos, não acessa ambientes tecnológicos de fornecedores e não realiza tratamento de dados pessoais de clientes. As conclusões refletem apenas a comunicação pública do fornecedor na data da coleta.
Fonte: documentos públicos do fornecedor






