

Google Gemini
Baseado exclusivamente em evidências públicas • 20 critérios (Privacidade + IA)
Última revisão: 10 fev 2026

Resumo de Confiança em IA
- •Em IA: não documenta princípios de ética em IA, o que pode gerar riscos de viés e discriminação algorítmica.
- •Em Privacidade Base: lista finalidades do tratamento de dados, oferecendo clareza sobre como as informações são utilizadas e protegidas.
Alternativas Mais Seguras
Software com melhor avaliação na mesma categoria
Pontos de Atenção em IA (2)
Critérios de IA que requerem atenção. Compre a Análise Premium para ver todos os 2 critérios.
- •Google Gemini
- •Não documenta mecanismos de contestação de decisões de IA, o que pode limitar a transparência em decisões automatizadas.
- •O opt-out específico para treinamento de IA não está disponível, dificultando o controle do usuário sobre seus dados.
- •Exigir cláusula de revisão humana em decisões automatizadas pode mitigar riscos.
Princípios de IA ética e medidas anti-viés não documentados
Não há menção explícita a princípios de 'IA Ética', 'viés' ou 'discriminação algorítmica' no texto fornecido.
Mecanismo de contestação de decisões de IA não disponível
Oferece canais de contato gerais, mas não especifica um processo de revisão humana para decisões automatizadas de IA.
Fonte: documentos públicos do fornecedor
Conformidades em IA (3)
Critérios de IA que a empresa atende. Compre a Análise Premium para ver todos os 3 critérios.
- •Google Gemini
- •Documenta o uso de dados para treinar IA, garantindo transparência.
- •Lista detalhadamente as finalidades do tratamento de dados, conectando categorias de dados e seus usos.
- •Essas práticas fortalecem a due diligence e a confiança na gestão de dados.
Política de retenção de dados de IA claramente documentada
A política informa que a retenção depende das configurações e oferece ferramentas para o usuário excluir dados de interação e histórico.
Política de uso de dados para treinamento de IA declarada
A política deixa claro que os dados inseridos pelos usuários são utilizados para treinar e melhorar as tecnologias de IA.
Funcionalidades de IA claramente identificadas com suas finalidades
Descreve funcionalidades específicas que utilizam automação/IA e suas finalidades, como pesquisa personalizada e tradução.
Fonte: documentos públicos do fornecedor
Destaques em Privacidade (3)
Critérios mais relevantes para esta categoria. Compre a Análise Premium para ver todos os 3 critérios.
Acordo de Processamento de Dados (DPA) não disponível para clientes
Não há menção explícita à disponibilidade de um Acordo de Processamento de Dados (DPA) ou termos de processador para clientes empresariais.
Salvaguardas adicionais documentadas para tratamento de dados sensíveis
Identifica categorias de dados sensíveis e estabelece salvaguardas específicas, como não uso para anúncios personalizados.
Finalidades do tratamento claramente listadas por categoria de dados
A política lista detalhadamente as categorias de dados coletados e conecta explicitamente com as finalidades de tratamento.
Fonte: documentos públicos do fornecedor
Alertas Críticos
- •Mecanismo de contestação de decisões de IA não disponível: Necessário para garantir que os usuários possam contestar decisões que os afetam..
- •Controle de opt-out para treinamento de IA disponível: Importante para que os usuários possam ter controle sobre o uso de seus dados para treinamento.
Análise de conformidade (20)
Política de retenção de dados de IA claramente documentada
Referência: ISO/IEC 42001 (8.2) + ISO/IEC 27701 (7.4.6)
Uso de prompts e respostas de IA para treinamento de IA declarado
Referência: ISO/IEC 42001 (8.2) + ISO/IEC 23894 + EU AI Act
Papéis de controlador e operador de dados claramente definidos
Referência: ISO/IEC 27701 (7.3)
Fonte: documentos públicos do fornecedor
Siga esta empresa e acesse todos os 20 critérios
Acompanhe mudanças nos scores, receba alertas de atualizações e veja a análise completa de conformidade
Não perca nenhuma atualização
Cadastre-se para seguir esta empresa e acompanhar mudanças nos scores de privacidade e IA
Por que confiar no Índice AITS: Open Community Audit
Transparência pública, revisão por pares e trilhas de evidência abertas — tudo verificável pela comunidade
Garantias de confiança
Revisão por pares
usuários, profissionais e especialistas confirmam ou contestam itens on-line.
Histórico público
mudanças de fornecedores e do índice são versionadas e acessíveis.
Participe
Evidências, confirmações e contestações
participe da validação colaborativa dos critérios AITS
Google Gemini: Avaliação de Privacidade e Segurança para Usuários
Fornecimento Claro de Finalidades do Tratamento de Dados
O Google Gemini se destaca por sua transparência em relação ao uso de dados. Com um score de 64% em Privacidade Base, a plataforma lista claramente as finalidades do tratamento de dados, permitindo que os usuários compreendam como suas informações são utilizadas. Isso é crucial para a conformidade com a LGPD e GDPR, pois garante que os usuários tenham conhecimento sobre o que está acontecendo com seus dados. Para maximizar essa transparência, os usuários devem revisar as configurações de privacidade e se certificar de que estão cientes das finalidades específicas para cada categoria de dados.
Salvaguardas para Dados Sensíveis
Outro ponto forte do Google Gemini é a documentação de salvaguardas adicionais para o tratamento de dados sensíveis. Isso significa que a plataforma implementa medidas para proteger informações que, se expostas, poderiam causar danos significativos aos usuários. Para garantir que essas salvaguardas estejam em vigor, os usuários devem verificar se as configurações de segurança estão ativas e se as permissões de acesso aos dados sensíveis estão restritas apenas a usuários autorizados.
Falta de Documentação sobre Ética em IA
Apesar de suas forças, o Google Gemini apresenta fraquezas significativas, especialmente no que diz respeito à ética em IA. Com um score de 67% em IA, a falta de documentação sobre princípios éticos e medidas anti-viés pode resultar em discriminação algorítmica. Isso significa que os usuários podem ser afetados por decisões de IA que não são justas ou imparciais. Para mitigar esse risco, é aconselhável que os usuários se mantenham informados sobre as atualizações da plataforma e considerem alternativas que ofereçam maior transparência em relação à ética em IA.
Ausência de Mecanismo de Contestação
Outra fraqueza importante é a ausência de um mecanismo de contestação para decisões tomadas pela IA. Isso pode ser problemático, pois os usuários não têm como contestar decisões que possam impactar suas vidas. Para lidar com essa limitação, os usuários devem documentar suas interações com a IA e, se necessário, buscar suporte ao cliente para expressar suas preocupações. Além disso, é recomendável que os usuários considerem plataformas que ofereçam mecanismos de contestação mais robustos.
Controle de Opt-Out para Treinamento de IA
O Google Gemini oferece um controle de opt-out para o treinamento de IA, mas isso pode não ser suficiente para todos os usuários. O score de opt-out é indefinido, o que indica que a eficácia desse recurso pode ser questionável. Para aqueles que desejam proteger ainda mais sua privacidade, é importante que os usuários explorem as configurações disponíveis e considerem desativar o compartilhamento de dados sempre que possível. Além disso, é aconselhável que os usuários revisem as políticas de privacidade para entender melhor como suas informações estão sendo utilizadas.
Dicas Práticas para Maximizar a Privacidade
Para garantir que sua experiência com o Google Gemini seja segura e em conformidade com as regulamentações, os usuários devem revisar regularmente suas configurações de privacidade. Isso inclui verificar quais dados estão sendo coletados, como estão sendo utilizados e se as permissões de acesso estão adequadas. Além disso, é importante ficar atento a atualizações de políticas e práticas de privacidade, pois isso pode impactar diretamente a segurança dos dados. Considerar alternativas que priorizam a ética em IA e oferecem maior controle sobre os dados também é uma estratégia prudente para os usuários que buscam maximizar sua privacidade.
Outros softwares de Aplicativos de IA
Mergulhe em pesquisas e análises profundas de cada player
Fonte: documentos públicos do fornecedor
Fontes Analisadas
Documentos públicos utilizados na auditoria da Google Gemini:
Evidências, confirmações e contestações
participe da validação colaborativa dos critérios AITS
Escopo & Limitações
As avaliações da TrustThis/AITS baseiam-se exclusivamente em informações publicamente disponíveis, devidamente citadas com data e URL, conforme a metodologia AITS (transparência em privacidade & IA).
O conteúdo possui natureza indicativa, destinado à triagem e comparação, não substituindo auditorias internas.
A TrustThis/AITS não executa testes invasivos, não acessa ambientes tecnológicos de fornecedores e não realiza tratamento de dados pessoais de clientes. As conclusões refletem apenas a comunicação pública do fornecedor na data da coleta.
Fonte: documentos públicos do fornecedor






