Skip to main content
Google Gemini logo

Google Gemini

Basado exclusivamente en evidencias públicas • 20 criterios (Privacidad + IA)
Última revisión: 10 feb 2026

B-
AITS IA
Privacy Rating by TrustThis — Verified Seal

Resumen de Confianza en IA

Entrenamiento de IA
Política de entrenamiento documentada
Retención de Datos
Permite eliminación del historial
Opt-out
Solo controles genéricos (cookies, anuncios)
Privacidadde IA
B-
PrivacidadBase
B-
  • En IA: no documenta principios de ética en IA, lo que puede generar riesgos de sesgo y discriminación algorítmica.
  • En Privacidad Base: lista las finalidades del tratamiento de datos, ofreciendo claridad sobre cómo se utiliza y protege la información.

Alternativas Más Seguras

Software con mejor evaluación en la misma categoría

Ver Comparación Completa de Alternativas

Puntos de Atención en IA (2)

Criterios de IA que requieren atención. Compre el Análisis Premium para ver los 2 criterios.

  • Google Gemini
  • No documenta mecanismos de impugnación de decisiones de IA, lo que puede limitar la transparencia en decisiones automatizadas.
  • El opt-out específico para el entrenamiento de IA no está disponible, dificultando el control del usuario sobre sus datos.
  • Exigir una cláusula de revisión humana en decisiones automatizadas puede mitigar riesgos.

Principios de IA ética y medidas anti-sesgo no documentados

No hay mención explícita a principios de 'IA Ética', 'sesgo' o 'discriminación algorítmica' en el texto proporcionado.

Mecanismo de impugnación de decisiones de IA no disponible

Ofrece canales de contacto generales, pero no especifica un proceso de revisión humana para decisiones automatizadas de IA.

Fuente: documentos públicos del proveedor

Conformidades en IA (3)

Criterios de IA que la empresa cumple. Compre el Análisis Premium para ver los 3 criterios.

  • Google Gemini
  • Documenta el uso de datos para entrenar IA, garantizando transparencia.
  • Lista detalladamente las finalidades del tratamiento de datos, conectando categorías de datos y sus usos.
  • Estas prácticas fortalecen la diligencia debida y la confianza en la gestión de datos.

Política de retención de datos de IA claramente documentada

La política informa que la retención depende de las configuraciones y ofrece herramientas para que el usuario elimine datos de interacción e historial.

Política de uso de datos para entrenamiento de IA declarada

La política deja claro que los datos introducidos por los usuarios se utilizan para entrenar y mejorar las tecnologías de IA.

Funcionalidades de IA claramente identificadas con sus finalidades

Describe funcionalidades específicas que utilizan automatización/IA y sus finalidades, como búsqueda personalizada y traducción.

Fuente: documentos públicos del proveedor

Destacados en Privacidad (3)

Criterios más relevantes para esta categoría. Compre el Análisis Premium para ver los 3 criterios.

Acuerdo de Procesamiento de Datos (DPA) no disponible para clientes

No hay mención explícita a la disponibilidad de un Acuerdo de Procesamiento de Datos (DPA) o términos de procesador para clientes empresariales.

Salvaguardas adicionales documentadas para tratamiento de datos sensibles

Identifica categorías de datos sensibles y establece salvaguardas específicas, como no uso para anuncios personalizados.

Finalidades del tratamiento claramente listadas por categoría de datos

La política lista detalladamente las categorías de datos recopilados y las conecta explícitamente con las finalidades de tratamiento.

Fuente: documentos públicos del proveedor

Alertas Críticos

  • Mecanismo de contestação de decisões de IA não disponível: Necessário para garantir que os usuários possam contestar decisões que os afetam..
  • Controle de opt-out para treinamento de IA disponível: Importante para que os usuários possam ter controle sobre o uso de seus dados para treinamento.

Análisis de conformidad (20)

Funcionalidad Premium
Criterio AITS 1
Conforme

Política de retención de datos de IA claramente documentada

Referencia: ISO/IEC 42001 (8.2) + ISO/IEC 27701 (7.4.6)

Criterio AITS 2
Conforme

Uso de prompts y respuestas de IA para entrenamiento de IA declarado

Referencia: ISO/IEC 42001 (8.2) + ISO/IEC 23894 + EU AI Act

Criterio AITS 9
Conforme

Roles de controlador y operador de datos claramente definidos

Referencia: ISO/IEC 27701 (7.3)

Fuente: documentos públicos del proveedor

Siga esta empresa y acceda a los 20 criterios

Siga los cambios en los scores, reciba alertas de actualizaciones y vea el análisis completo de conformidad

Regístrese gratis

No se pierda ninguna actualización

Regístrese para seguir esta empresa y acompañar los cambios en los scores de privacidad e IA

Regístrese gratis

Por qué confiar en el Índice AITS: Open Community Audit

Transparencia pública, revisión por pares y rastros de evidencia abiertos — todo verificable por la comunidad

Garantías de confianza

Revisión por pares

usuarios, profesionales y expertos confirman o contestan ítems en línea.

Historial público

cambios de proveedores y del índice son versionados y accesibles.

Participe

Evidencias, confirmaciones y contestaciones

participe en la validación colaborativa de los criterios AITS

Contáctenos

Fortalezas y Debilidades de Google Gemini en Privacidad y Gobernanza de IA

Fortalezas en el Uso de Datos para IA

Google Gemini se destaca por su enfoque en la transparencia en el uso de datos para entrenar sus tecnologías de inteligencia artificial (IA). Con un puntaje de 67% en la auditoría de IA, la plataforma documenta claramente cómo utiliza los datos, lo que permite a los usuarios entender mejor el proceso. Esto es crucial, especialmente en el contexto de regulaciones como la LGPD y la GDPR, que exigen claridad sobre el tratamiento de datos personales. Al listar las finalidades del tratamiento de datos por categoría, Google Gemini proporciona a los usuarios una visión clara de cómo se utilizan sus datos, lo que aumenta la confianza en la plataforma.

Además, Google Gemini ha implementado salvaguardas adicionales para el tratamiento de datos sensibles, lo que es un punto a favor en términos de seguridad y privacidad. Estas medidas son esenciales para proteger la información personal de los usuarios y asegurar que se maneje de acuerdo con las mejores prácticas de la industria. Esto es especialmente relevante para aquellos que manejan datos sensibles, ya que garantiza que se tomen precauciones adicionales para mitigar riesgos potenciales.

Claridad en las Finalidades del Tratamiento de Datos

La capacidad de Google Gemini para listar las finalidades del tratamiento de datos es un aspecto fundamental que los usuarios deben considerar. Este enfoque no solo cumple con los requisitos de la LGPD y la GDPR, sino que también permite a los usuarios tener un mayor control sobre su información. Al conocer las finalidades, los usuarios pueden tomar decisiones informadas sobre qué datos compartir y cómo se utilizarán.

Para maximizar esta fortaleza, los usuarios deben revisar regularmente las políticas de privacidad de Google Gemini y asegurarse de que están al tanto de cualquier cambio en las finalidades del tratamiento. Esto les permitirá ajustar sus configuraciones de privacidad y tomar decisiones que se alineen con sus preferencias personales.

Debilidades en la Documentación de Ética en IA

A pesar de sus fortalezas, Google Gemini presenta debilidades significativas en la documentación de principios de ética en IA. Con un puntaje de 67% en la auditoría de IA, la falta de medidas documentadas contra el sesgo y la discriminación algorítmica puede ser preocupante para los usuarios. Sin un marco claro para abordar estos problemas, existe el riesgo de que las decisiones automatizadas puedan perpetuar sesgos existentes, lo que podría afectar negativamente a ciertos grupos de usuarios.

Los usuarios deben ser conscientes de esta debilidad y considerar la posibilidad de implementar medidas adicionales para mitigar estos riesgos. Por ejemplo, pueden optar por revisar los resultados de las decisiones de IA y proporcionar retroalimentación a Google Gemini para ayudar a mejorar sus algoritmos. Esto no solo contribuye a la mejora del sistema, sino que también permite a los usuarios tener un papel activo en la gobernanza de la IA.

Falta de Mecanismos de Contestación

Otra debilidad importante es la ausencia de un mecanismo de contestación para las decisiones de IA. Esto significa que si un usuario se ve afectado por una decisión automatizada, no tiene un camino claro para impugnarla. Esta falta de transparencia puede ser un obstáculo significativo para aquellos que dependen de decisiones automatizadas en su trabajo o vida diaria.

Para abordar esta preocupación, los usuarios deben estar atentos a las actualizaciones de Google Gemini y abogar por la implementación de mecanismos de contestación. Además, pueden considerar el uso de herramientas complementarias que ofrezcan mayor control sobre las decisiones automatizadas y permitan una mayor transparencia en el proceso.

Consejos Prácticos para la Configuración de Privacidad

Para garantizar una experiencia segura y transparente con Google Gemini, los usuarios deben revisar y ajustar sus configuraciones de privacidad. Asegúrese de habilitar las opciones de opt-out disponibles para el entrenamiento de IA, lo que les permitirá tener un mayor control sobre cómo se utilizan sus datos. También es recomendable revisar las configuraciones de privacidad regularmente para adaptarse a cualquier cambio en las políticas de Google Gemini.

Además, los usuarios deben estar atentos a las actualizaciones de seguridad y privacidad que Google Gemini pueda implementar. Mantenerse informado sobre las mejores prácticas y las nuevas funcionalidades puede ayudar a los usuarios a proteger su información personal y garantizar que se maneje de manera responsable.

Alternativas y Precauciones a Considerar

Si las debilidades de Google Gemini son motivo de preocupación, los usuarios pueden considerar alternativas que ofrezcan un enfoque más robusto en la ética de IA y la privacidad. Investigar otras plataformas que tengan un enfoque más claro en la transparencia y la gobernanza de IA puede ser beneficioso. Además, es recomendable que los usuarios se mantengan informados sobre las regulaciones de privacidad, como la LGPD y la GDPR, para asegurarse de que sus derechos sean respetados y protegidos.

En resumen, aunque Google Gemini presenta fortalezas significativas en la documentación del uso de datos y la implementación de salvaguardas, también es crucial que los usuarios sean conscientes de sus debilidades y tomen medidas proactivas para proteger su privacidad y derechos.

Otros software de Herramientas de IA

Explore investigaciones y análisis profundos de cada competidor

Fuente: documentos públicos del proveedor

Evidencias, confirmaciones y contestaciones

participe en la validación colaborativa de los criterios AITS

Contáctenos

Alcance y Limitaciones

Las evaluaciones de TrustThis/AITS se basan exclusivamente en información disponible públicamente, debidamente citada con fecha y URL, según la metodología AITS (transparencia en privacidad e IA).

El contenido tiene naturaleza indicativa, destinado al análisis y comparación, no sustituyendo auditorías internas.

TrustThis/AITS no realiza pruebas invasivas, no accede a los entornos tecnológicos de los proveedores y no realiza tratamiento de datos personales de clientes. Las conclusiones reflejan únicamente la comunicación pública del proveedor en la fecha de recopilación.

Fuente: documentos públicos del proveedor