

Perplexity
Baseado exclusivamente em evidências públicas • 20 critérios (Privacidade + IA)
Última revisão: 13 fev 2026
Resumo de Confiança em IA
- •Em IA: não documenta compromissos com IA ética, o que pode impactar a confiança dos usuários em suas interações.
- •Em Privacidade Base: identifica claramente o controlador de dados, facilitando a comunicação e resolução de questões de privacidade pelos usuários.
Alternativas Mais Seguras
Software com melhor avaliação na mesma categoria
Pontos de Atenção em IA (2)
Critérios de IA que requerem atenção. Compre a Análise Premium para ver todos os 2 critérios.
- •Perplexity
- •Não menciona princípios de IA ética, o que pode gerar insegurança em relação ao uso de IA.
- •Não documenta um mecanismo de contestação de decisões automatizadas, limitando o controle do usuário.
- •É recomendável exigir cláusulas contratuais que abordem esses aspectos.
Princípios de IA ética e medidas anti-viés não documentados
A falta de menção a princípios de IA ética pode impactar a confiança dos clientes em relação ao uso de prompts e respostas de IA.
Mecanismo de contestação de decisões de IA não disponível
A ausência de um processo claro para contestar decisões automatizadas pode gerar insegurança para os usuários ao gerar respostas e interações.
Fonte: documentos públicos do fornecedor
Conformidades em IA (3)
Critérios de IA que a empresa atende. Compre a Análise Premium para ver todos os 3 critérios.
- •Perplexity
- •Documenta o uso de dados para melhorar modelos de IA, garantindo transparência.
- •Identifica claramente o controlador de dados e o DPO, facilitando o contato.
- •Essas práticas fortalecem a due diligence e a confiança dos usuários na empresa.
Política de retenção de dados de IA claramente documentada
A falta de um prazo específico para retenção de prompts e respostas de IA pode gerar incertezas sobre a privacidade e segurança dos dados.
Controle de opt-out para treinamento de IA disponível
A opção de opt-out para o uso de prompts e respostas de IA no treinamento de modelos é um passo positivo para a transparência e controle do usuário.
Decisões automatizadas por IA explicadas de forma compreensível
A personalização dos outputs é mencionada, mas a falta de clareza sobre os critérios utilizados pode gerar desconfiança entre os usuários.
Fonte: documentos públicos do fornecedor
Destaques em Privacidade (3)
Critérios mais relevantes para esta categoria. Compre a Análise Premium para ver todos os 3 critérios.
Identidade e contato do controlador de dados claramente informados
A identificação clara da empresa e do DPO facilita a comunicação e a resolução de questões de privacidade pelos usuários.
Canal de contato para questões de privacidade disponível
A disponibilidade de um canal de contato específico para questões de privacidade é um aspecto positivo para a comunicação com os usuários.
Papéis de controlador e operador de dados claramente definidos
A definição clara dos papéis de controlador e operador ajuda a entender as responsabilidades em relação aos prompts e respostas de IA.
Fonte: documentos públicos do fornecedor
Alertas Críticos
- •Mecanismo de contestação de decisões de IA não disponível: A contestação é fundamental para garantir a transparência e a justiça nas decisões automatizadas..
- •Controle de opt-out para treinamento de IA disponível: Permitir opt-out é fundamental para respeitar a privacidade e as preferências dos usuários.
Análise de conformidade (20)
Compromissos com IA ética e responsável não documentados
Referência: ISO/IEC 42001 (6.1) + ISO/IEC TR 24028 + EU AI Act (Art. 9)
Mecanismo de contestação de decisões de IA não disponível
Referência: ISO/IEC 42001 (8.3)
Política de retenção de dados de IA claramente documentada
Referência: ISO/IEC 42001 (8.2) + ISO/IEC 27701 (7.4.6)
Fonte: documentos públicos do fornecedor
Siga esta empresa e acesse todos os 20 critérios
Acompanhe mudanças nos scores, receba alertas de atualizações e veja a análise completa de conformidade
Não perca nenhuma atualização
Cadastre-se para seguir esta empresa e acompanhar mudanças nos scores de privacidade e IA
Por que confiar no Índice AITS: Open Community Audit
Transparência pública, revisão por pares e trilhas de evidência abertas — tudo verificável pela comunidade
Garantias de confiança
Revisão por pares
usuários, profissionais e especialistas confirmam ou contestam itens on-line.
Histórico público
mudanças de fornecedores e do índice são versionadas e acessíveis.
Participe
Evidências, confirmações e contestações
participe da validação colaborativa dos critérios AITS
Perplexity: Avaliação de Privacidade e Segurança em Ferramentas de IA
Transparência nas Políticas de Uso de Dados
A Perplexity se destaca pela clareza em suas políticas de uso de dados, o que é fundamental para a confiança do usuário. Com um AITS Privacy Score de 89%, a plataforma informa claramente como os dados são utilizados para o treinamento de sua inteligência artificial. Isso significa que os usuários podem entender melhor como suas informações pessoais são tratadas, promovendo um ambiente mais seguro e transparente. Essa transparência é essencial para atender às exigências da LGPD e GDPR, garantindo que os usuários tenham controle sobre seus dados.
Identificação Clara do Controlador de Dados
Outro ponto forte da Perplexity é a identificação clara do controlador de dados. Isso facilita a comunicação entre usuários e a empresa, especialmente em casos de dúvidas ou problemas relacionados à privacidade. Ter um contato direto e acessível é um aspecto positivo que pode ajudar a resolver questões rapidamente, aumentando a confiança do usuário na plataforma. A conformidade com a ISO 27701 também é um indicativo de que a empresa está comprometida com a proteção de dados.
Falta de Compromissos com IA Ética
Apesar de suas forças, a Perplexity apresenta fraquezas significativas. A ausência de documentação sobre compromissos com IA ética e responsável é uma preocupação. Isso pode impactar a confiança dos usuários, pois a falta de diretrizes claras sobre como a IA é gerida pode levar a decisões automatizadas que não consideram adequadamente os direitos dos indivíduos. Para mitigar esse risco, os usuários devem estar atentos às atualizações da plataforma e exigir mais transparência sobre as práticas de IA.
Ausência de Mecanismo de Contestação
Outro ponto fraco é a falta de um mecanismo de contestação de decisões de IA. Isso significa que, se um usuário se sentir prejudicado por uma decisão automatizada, não há um canal claro para contestar essa decisão. Essa lacuna pode ser preocupante, especialmente em um ambiente onde as decisões de IA estão se tornando cada vez mais comuns. Os usuários devem considerar a possibilidade de buscar alternativas que ofereçam essa funcionalidade, garantindo assim uma maior proteção de seus direitos.
Controle de Opt-Out para Treinamento de IA
Embora a Perplexity ofereça um controle de opt-out para o treinamento de IA, isso pode não ser suficiente para todos os usuários. A possibilidade de optar por não ter seus dados utilizados para treinar modelos de IA é um passo positivo, mas a falta de opções mais robustas pode deixar alguns usuários inseguros. É aconselhável que os usuários revisem suas configurações de privacidade e considerem desativar essa opção se estiverem preocupados com o uso de seus dados. Além disso, é importante que os usuários se mantenham informados sobre as práticas da empresa e as atualizações de suas políticas.
Dicas Práticas para Usuários
Para maximizar a segurança e a privacidade ao usar a Perplexity, os usuários devem revisar regularmente suas configurações de privacidade e estar cientes das políticas da plataforma. É recomendável que os usuários leiam atentamente os termos de uso e as políticas de privacidade, especialmente em relação ao uso de IA. Além disso, considerar o uso de ferramentas de monitoramento de dados pode ajudar a garantir que suas informações pessoais estejam protegidas. Manter-se informado sobre as legislações como a LGPD e GDPR também é crucial para garantir que seus direitos sejam respeitados.
Outros softwares de Aplicativos de IA
Mergulhe em pesquisas e análises profundas de cada player
Fonte: documentos públicos do fornecedor
Fontes Analisadas
Documentos públicos utilizados na auditoria da Perplexity:
Evidências, confirmações e contestações
participe da validação colaborativa dos critérios AITS
Escopo & Limitações
As avaliações da TrustThis/AITS baseiam-se exclusivamente em informações publicamente disponíveis, devidamente citadas com data e URL, conforme a metodologia AITS (transparência em privacidade & IA).
O conteúdo possui natureza indicativa, destinado à triagem e comparação, não substituindo auditorias internas.
A TrustThis/AITS não executa testes invasivos, não acessa ambientes tecnológicos de fornecedores e não realiza tratamento de dados pessoais de clientes. As conclusões refletem apenas a comunicação pública do fornecedor na data da coleta.
Fonte: documentos públicos do fornecedor





