

Google Gemini
Basado exclusivamente en evidencias públicas • 20 criterios (Privacidad + IA)
Última revisión: 10 feb 2026

Resumen de Confianza en IA
- •En IA: no documenta principios de ética en IA, lo que puede generar riesgos de sesgo y discriminación algorítmica.
- •En Privacidad Base: lista las finalidades del tratamiento de datos, ofreciendo claridad sobre cómo se utiliza y protege la información.
Alternativas Más Seguras
Software con mejor evaluación en la misma categoría
Puntos de Atención en IA (2)
Criterios de IA que requieren atención. Compre el Análisis Premium para ver los 2 criterios.
- •Google Gemini
- •No documenta mecanismos de impugnación de decisiones de IA, lo que puede limitar la transparencia en decisiones automatizadas.
- •El opt-out específico para el entrenamiento de IA no está disponible, dificultando el control del usuario sobre sus datos.
- •Exigir una cláusula de revisión humana en decisiones automatizadas puede mitigar riesgos.
Principios de IA ética y medidas anti-sesgo no documentados
No hay mención explícita a principios de 'IA Ética', 'sesgo' o 'discriminación algorítmica' en el texto proporcionado.
Mecanismo de impugnación de decisiones de IA no disponible
Ofrece canales de contacto generales, pero no especifica un proceso de revisión humana para decisiones automatizadas de IA.
Fuente: documentos públicos del proveedor
Conformidades en IA (3)
Criterios de IA que la empresa cumple. Compre el Análisis Premium para ver los 3 criterios.
- •Google Gemini
- •Documenta el uso de datos para entrenar IA, garantizando transparencia.
- •Lista detalladamente las finalidades del tratamiento de datos, conectando categorías de datos y sus usos.
- •Estas prácticas fortalecen la diligencia debida y la confianza en la gestión de datos.
Política de retención de datos de IA claramente documentada
La política informa que la retención depende de las configuraciones y ofrece herramientas para que el usuario elimine datos de interacción e historial.
Política de uso de datos para entrenamiento de IA declarada
La política deja claro que los datos introducidos por los usuarios se utilizan para entrenar y mejorar las tecnologías de IA.
Funcionalidades de IA claramente identificadas con sus finalidades
Describe funcionalidades específicas que utilizan automatización/IA y sus finalidades, como búsqueda personalizada y traducción.
Fuente: documentos públicos del proveedor
Destacados en Privacidad (3)
Criterios más relevantes para esta categoría. Compre el Análisis Premium para ver los 3 criterios.
Acuerdo de Procesamiento de Datos (DPA) no disponible para clientes
No hay mención explícita a la disponibilidad de un Acuerdo de Procesamiento de Datos (DPA) o términos de procesador para clientes empresariales.
Salvaguardas adicionales documentadas para tratamiento de datos sensibles
Identifica categorías de datos sensibles y establece salvaguardas específicas, como no uso para anuncios personalizados.
Finalidades del tratamiento claramente listadas por categoría de datos
La política lista detalladamente las categorías de datos recopilados y las conecta explícitamente con las finalidades de tratamiento.
Fuente: documentos públicos del proveedor
Alertas Críticos
- •Mecanismo de contestação de decisões de IA não disponível: Necessário para garantir que os usuários possam contestar decisões que os afetam..
- •Controle de opt-out para treinamento de IA disponível: Importante para que os usuários possam ter controle sobre o uso de seus dados para treinamento.
Análisis de conformidad (20)
Política de retención de datos de IA claramente documentada
Referencia: ISO/IEC 42001 (8.2) + ISO/IEC 27701 (7.4.6)
Uso de prompts y respuestas de IA para entrenamiento de IA declarado
Referencia: ISO/IEC 42001 (8.2) + ISO/IEC 23894 + EU AI Act
Roles de controlador y operador de datos claramente definidos
Referencia: ISO/IEC 27701 (7.3)
Fuente: documentos públicos del proveedor
Siga esta empresa y acceda a los 20 criterios
Siga los cambios en los scores, reciba alertas de actualizaciones y vea el análisis completo de conformidad
No se pierda ninguna actualización
Regístrese para seguir esta empresa y acompañar los cambios en los scores de privacidad e IA
Por qué confiar en el Índice AITS: Open Community Audit
Transparencia pública, revisión por pares y rastros de evidencia abiertos — todo verificable por la comunidad
Garantías de confianza
Revisión por pares
usuarios, profesionales y expertos confirman o contestan ítems en línea.
Historial público
cambios de proveedores y del índice son versionados y accesibles.
Participe
Evidencias, confirmaciones y contestaciones
participe en la validación colaborativa de los criterios AITS
Otros software de Herramientas de IA
Explore investigaciones y análisis profundos de cada competidor
Fuente: documentos públicos del proveedor
Fuentes Analizadas
Documentos públicos utilizados en la auditoría de Google Gemini:
Evidencias, confirmaciones y contestaciones
participe en la validación colaborativa de los criterios AITS
Alcance y Limitaciones
Las evaluaciones de TrustThis/AITS se basan exclusivamente en información disponible públicamente, debidamente citada con fecha y URL, según la metodología AITS (transparencia en privacidad e IA).
El contenido tiene naturaleza indicativa, destinado al análisis y comparación, no sustituyendo auditorías internas.
TrustThis/AITS no realiza pruebas invasivas, no accede a los entornos tecnológicos de los proveedores y no realiza tratamiento de datos personales de clientes. Las conclusiones reflejan únicamente la comunicación pública del proveedor en la fecha de recopilación.
Fuente: documentos públicos del proveedor






