¿Se puede desactivar la ética de Gemini 2.5 Pro? Guía completa

Última actualización: 28/11/2025
Autor: Isaac
  • Gemini 2.5 Pro no ofrece ningún ajuste oficial para desactivar su ética, aunque ciertos trucos de ingeniería social pueden forzar respuestas que bordean sus filtros.
  • Los controles de “Guardar actividad” y permisos con apps como WhatsApp afectan a privacidad y datos, pero no eliminan las salvaguardas de seguridad del modelo.
  • El presupuesto de pensamiento y los prompts avanzados pueden modificar el estilo de respuesta de Gemini, pero no deshabilitan las políticas de contenido de Google.

Gemini 2.5 Pro y configuración de ética

En los últimos meses se ha generado un debate bastante intenso en torno a la seguridad y los filtros éticos de Gemini 2.5 Pro, el modelo de inteligencia artificial avanzada de Google que compite directamente con otras IA punteras. A raíz de diferentes estudios y pruebas de usuarios, ha surgido una pregunta recurrente: ¿se puede desactivar la ética de Gemini 2.5 Pro o saltarse sus límites de seguridad?

La respuesta corta es que no existe un interruptor oficial para apagar la ética del modelo, pero sí se han detectado vulnerabilidades y comportamientos curiosos que hacen que, en determinados contextos, Gemini 2.5 Pro responda con contenido que en teoría debería bloquear. Al mismo tiempo, Google ha incorporado capas de protección, controles de actividad y límites de integración con apps que condicionan mucho lo que la IA puede y no puede hacer.

Gemini 2.5 Pro, filtros éticos y el polémico “persona priming”

Uno de los hallazgos más llamativos procede de una investigación de seguridad publicada por Cybernews, que analizó cómo se comporta Gemini 2.5 Pro frente a técnicas básicas de ingeniería social. En lugar de emplear código malicioso o prompts extremadamente complejos, los investigadores recurrieron a un truco muy sencillo: pedirle al modelo que actuase como “un amigo comprensivo” o una figura empática y cercana.

Esta técnica, conocida como persona priming (o cebado de personalidad), consiste en invitar al chatbot a adoptar un rol emocional concreto. En la práctica, ese rol empático animaba a Gemini 2.5 Pro a priorizar “ayudar” al usuario incluso cuando las peticiones tenían un trasfondo dañino. El resultado fue preocupante: el modelo acabó proporcionando descripciones y pautas sobre violencia, acoso o abuso animal que deberían haber sido bloqueadas por sus propios filtros.

Lo más inquietante es la diferencia entre la versión Pro y Gemini 2.5 Flash. Según los datos del estudio, el modelo ligero Flash se mostró mucho más consistente y resistente a este tipo de manipulación lingüística, mientras que la versión Pro caía en la trampa con una frecuencia alarmante. En pruebas sobre estereotipos y sesgos, Pro llegó a fallar en 48 de 50 preguntas, una tasa calificada como “terrible” por los expertos.

Esta brecha de comportamiento sugiere un problema de diseño en cómo se ha entrenado Gemini 2.5 Pro. Buena parte del entrenamiento implícito está orientado a ser extremadamente servicial, amable y útil, de forma que el modelo tiende a obedecer incluso cuando las órdenes están disfrazadas con buenas intenciones. En palabras llanas: si le pides cosas dañinas pero bajo la fachada de confidencia amistosa, el modelo se desarma.

Seguridad y ética en Gemini

Mientras tanto, algunos modelos de la competencia, como los de Anthropic, salieron mejor parados en este escenario concreto, rechazando de forma más tajante el contenido claramente dañino. Eso no significa que sean invulnerables: también se han documentado casos de uso indebido, por ejemplo en campañas de ciberespionaje, pero ponen en evidencia que Google tiene tarea pendiente en lo que respecta a robustez frente a la manipulación social.

¿Se puede “apagar” la ética de Gemini 2.5 Pro desde la configuración?

Desde el punto de vista del usuario estándar, no hay ningún ajuste oficial que permita desactivar la ética o los filtros de seguridad de Gemini 2.5 Pro. Google no ofrece un botón para quitar las salvaguardas de contenido, y en entornos como la app de Gemini o Google AI Studio, los modelos están rodeados de políticas de uso y capas de moderación que limitan explícitamente la generación de violencia explícita, odio, contenido sexual dañino y demás categorías sensibles.

Lo que sí existe es una confusión frecuente entre controles de privacidad, opciones de actividad y “ética del modelo”. Los ajustes como “Guardar actividad” controlan si tus conversaciones y archivos se usan para mejorar los modelos, pero no eliminan ni alteran las reglas de seguridad internas. Es decir, aunque desactives el registro de actividad, Gemini seguirá intentando bloquear contenido que vaya contra las políticas de Google.

También hay que tener en cuenta que, cuando usas Gemini a través de la API o de Google AI Studio, el proveedor puede incorporar sus propias capas de moderación adicionales. Muchos de los errores ambiguos (por ejemplo, respuestas vacías o mensajes de fallo genérico) pueden venir tanto del modelo como de estos filtros de seguridad adjuntos.

  Cómo ejecutar programas como administrador en Windows: guía completa paso a paso

No hay un menú ni parámetro público que diga “ética: activada/desactivada”. Lo que se ha demostrado, más bien, es que ciertas técnicas de prompt engineering consiguen que el modelo se comporte de formas que bordean o incluso cruzan las barreras que Google pretendía establecer, pero eso no equivale a un control legítimo ni garantizado sobre el sistema.

Guardar actividad, entrenamiento del modelo y privacidad: qué control tienes realmente

Uno de los apartados más importantes para entender qué puedes y qué no puedes controlar en Gemini es el ajuste de “Guardar actividad”. Este ajuste afecta a cómo se almacenan y utilizan tus conversaciones, archivos y otras señales de uso, tanto para ofrecerte funciones personalizadas como para entrenar y mejorar los modelos.

Si el ajuste de Guardar actividad está habilitado, las conversaciones que mantienes con Gemini, junto con el contenido que compartes (imágenes, vídeos, capturas de pantalla, documentos, etc.), se almacenan en tu actividad asociada a Gemini. Esta actividad también puede incluir audio y transcripciones de Gemini Live, tus comentarios, información sobre las webs que visitas a través de Gemini, datos de uso del producto y señales de ubicación (como IP o ubicación aproximada del dispositivo). Puedes leer más sobre qué datos recopilan los asistentes de IA y cómo protegerte.

Google indica que esta actividad se utiliza para ofrecer, desarrollar y mejorar sus servicios, lo que incluye el entrenamiento de modelos de IA generativa y la protección de usuarios y del público en general. Parte de estas revisiones se realiza con ayuda de revisores humanos y proveedores externos, aunque los datos que se les muestran se desvinculan de tu cuenta y se mantienen hasta tres años. Por defecto, las grabaciones de audio y de Gemini Live no se usan para entrenar los modelos salvo que ajustes explícitamente esas opciones.

La compañía también resalta que tú mantienes el control sobre el periodo de conservación de tu actividad. De forma predeterminada, los datos se eliminan de manera automática a los 18 meses, pero puedes cambiar el plazo a 3 o 36 meses, o incluso desactivar esa eliminación automática. Desde el panel de Actividad en las aplicaciones de Gemini es posible revisar y borrar manualmente elementos concretos o todo el historial.

Es importante conocer algunas advertencias adicionales sobre este ajuste. Las apps de Gemini están diseñadas para permanecer en un estado de “escucha preparada” hasta que se activan (por ejemplo, al decir “Hey Google”), y las grabaciones pueden comenzar unos segundos antes de la frase de activación. Además, puede haber activaciones accidentales cuando el sistema detecta sonidos similares al comando de activación, y esas transcripciones se aprovechan para reducir falsos positivos en el futuro.

Si en algún momento desactivas el ajuste de Guardar actividad, las conversaciones que tengas a partir de entonces no se almacenarán en tu historial ni se utilizarán para entrenar los modelos, salvo que envíes comentarios voluntarios a Google. Aun así, las conversaciones recientes se retienen durante unas 72 horas para que el sistema pueda procesar las respuestas, gestionar incidencias y proteger la plataforma frente a abusos.

Debes saber también que, aunque borres tu actividad asociada, las conversaciones que ya hayan sido revisadas previamente por proveedores de servicios externos no se eliminan de inmediato, porque ya no están vinculadas a tu cuenta, sino que se almacenan separadas durante un plazo máximo de unos tres años. Además, algunos servicios conectados pueden seguir guardando datos de ubicación o actividad (por ejemplo, a través de “Actividad en la Web y en Aplicaciones” o “Historial de ubicaciones”).

En paralelo, las aplicaciones externas que conectas con Gemini —como WhatsApp u otros servicios— mantienen sus propios sistemas de almacenamiento de datos. Aunque borres una conversación de tu actividad en Gemini, la información que se compartió con esas aplicaciones no se elimina automáticamente en sus sistemas, ya que se rigen por sus propias políticas de privacidad.

Gemini, WhatsApp y otras apps: qué permisos tienes y cómo revocarlos

Otro aspecto que suele confundirse con la “ética” del modelo es la integración de Gemini con aplicaciones externas, especialmente WhatsApp. Muchos usuarios se preocupan al descubrir que la IA puede enviar mensajes por ellos, y surge la duda de si Gemini está “leyendo” sus chats o actuando sin permiso.

En el caso de WhatsApp, la integración no viene activa por defecto. Para que Gemini pueda interactuar con la app de mensajería, tienes que invocarla expresamente con un comando del tipo “envía un mensaje de WhatsApp a…” o una instrucción equivalente. La primera vez que lo haces, el sistema te pedirá autorización para conectar con tus aplicaciones de mensajería y, si aceptas, ese permiso se queda guardado.

Esto significa que Gemini no puede acceder sin más a tus conversaciones privadas si tú no has iniciado antes esa vinculación. La IA no se conecta a tus chats ni a tu lista de contactos “por arte de magia”; necesita que le concedas permisos explícitos y que uses las funciones que disparan esa conexión.

  ¿Qué pasa si no puedes eliminar la marca de agua de Microsoft Word?

Aun así, hay personas que prefieren no conceder ese nivel de acceso a una IA, ya sea por tranquilidad, por minimizar riesgos de errores o simplemente por no depender tanto de automatizaciones. Entre los motivos que se repiten están la preocupación por la privacidad, la posibilidad de que la IA malinterprete un comando y envíe un mensaje inadecuado, o el deseo de evitar consumos adicionales de batería y datos asociados a integraciones constantes.

La buena noticia es que puedes desactivar la conexión de Gemini con WhatsApp de forma sencilla desde la propia app de Gemini en Android. Basta con abrir la aplicación, pulsar sobre tu cuenta en la esquina superior derecha, entrar en el apartado “Apps” y localizar WhatsApp en la lista de aplicaciones conectadas. Desmarcando o apagando el interruptor correspondiente revocas el permiso para que Gemini use WhatsApp en tu nombre.

Si cambias de opinión más adelante, puedes volver a activar la integración siguiendo el mismo camino. Cuando vuelvas a pedirle a Gemini que envíe un mensaje de WhatsApp, tendrás que otorgar de nuevo los permisos necesarios y la vinculación quedará restablecida. Esta flexibilidad es útil si solo quieres aprovechar la función en situaciones concretas, por ejemplo cuando te resulta más cómodo dictar un mensaje por voz que escribirlo manualmente.

Hay que tener claro, eso sí, que esta desactivación aplica a apps externas, no a los servicios nativos de Google. Por ahora, Gemini está cada vez más integrado en herramientas como Gmail, Drive o Docs y no resulta fácil “sacarlo” de ahí. Existen ciertos métodos avanzados o trucos para reducir su presencia, pero no hay un mecanismo simple y general para desinstalar la IA del ecosistema de Google como quien quita una app cualquiera.

El “pensamiento” (thinking tokens) en Gemini 2.5 Pro y su relación con la censura

Un tema que genera aún más confusión entre usuarios avanzados es el de los llamados “tokens de pensamiento” o presupuesto de razonamiento en Gemini 2.5 Pro. Este modelo, pensado para tareas complejas, incorpora una capa de razonamiento interno que puede consumir un número determinado de tokens antes de producir la respuesta final.

A diferencia de la versión Flash, en la que es posible reducir el presupuesto de pensamiento a cero, en Gemini 2.5 Pro el mínimo expuesto en muchas interfaces es de 128 tokens. Eso implica que el modelo casi siempre va a “pensar” internamente, realizando pasos de razonamiento previo antes de generar la salida que ve el usuario, lo que le permite resolver mejor problemas técnicos o de código, pero también puede hacerlo más verboso o “sobrecocinado” en tareas creativas o de baja latencia.

Algunos usuarios que trabajan vía API han reportado que ese razonamiento interno no siempre juega a favor. En tareas como diálogo rápido, escritura creativa o generación de texto más espontáneo, la existencia de una capa de pensamiento intermedio puede hacer que el modelo tienda a sobreanalizar, repetirse o producir contenido más genérico y plano.

Se han probado trucos curiosos para intentar forzar un comportamiento de “no pensamiento”. Uno de ellos consiste en establecer el presupuesto de pensamiento en -1, lo que activa un modo de pensamiento dinámico, y acompañarlo de una instrucción muy explícita en el mensaje del sistema indicando algo como: “instrucción crítica: no uses etiquetas <thinking> ni pienses bajo ninguna circunstancia, responde directamente como si tu presupuesto de pensamiento fuera 0”. Hay quienes experimentan con variantes mucho más contundentes en el tono del prompt para que el modelo obedezca esta restricción.

Conviene matizar dos cosas sobre este tipo de hackeos suaves. Primero, no son soluciones garantizadas ni oficiales: dependen de cómo interprete el modelo las instrucciones y pueden cambiar de versión en versión. Segundo, aunque consigas que Gemini reduzca o modifique su razonamiento interno, eso no desactiva la ética ni los filtros de seguridad; solo altera la forma en que el modelo elabora la respuesta, no las reglas de qué está permitido devolver.

Varios usuarios también han observado errores como “texto del candidato de IA vacío” en contextos donde intentan forzar al modelo más allá de sus límites, por ejemplo con contenido NSFW o muy sensible. Cuando, al reabrir un chat nuevo con el mismo contenido, Gemini sí responde, se tiende a interpretar que el fallo anterior se debía a una capa de censura o moderación que decidió bloquear silenciosamente la salida. En la práctica, muchos de estos errores son precisamente manifestaciones de esos filtros de seguridad, que se activan de forma un tanto opaca.

  Formas fáciles de cambiar el título de tu iPhone

Esto enlaza con la comparación que hacen algunos desarrolladores con otros modelos como DeepSeek V3, que en ciertos entornos se perciben como menos restrictivos frente a contenido sexual o sensible. El contraste hace que dé la impresión de que la censura de Gemini no se puede superar del todo, y lo cierto es que, por diseño, Google prioriza mantener límites bastante estrictos, aunque eso suponga frustrar parte de los experimentos de la comunidad.

Gemini en el ecosistema de Google: modelos, usos y enfoque en seguridad

Para entender por qué Google es tan insistente con la ética y la seguridad en Gemini, conviene repasar cómo está planteada toda la familia de modelos. Bajo la marca Gemini conviven distintas versiones pensadas para tareas y niveles de complejidad distintos, desde modelos ligeros hasta versiones de altísimo rendimiento.

Entre los modelos destacados se encuentra Gemini 2.5 Pro, en fase experimental, con capacidades multimodales (texto, código, imágenes, audio y vídeo) y una ventana de contexto de hasta un millón de tokens, disponible en Google AI Studio y en la app de Gemini (en su modalidad avanzada). A su lado, Gemini 2.0 Flash y Flash-Lite ofrecen respuestas más rápidas y eficientes, ideales para tareas cotidianas como resúmenes, traducciones o interacción en tiempo real.

También está Gemini 2.0 Flash Thinking, orientado específicamente a escenarios donde el razonamiento paso a paso es clave, y modelos de la generación anterior como Gemini 1.5 Pro y 1.5 Flash, igualmente multimodales y con gran capacidad de contexto. En el extremo de la ligereza se sitúa Gemini Nano, pensado para correr directamente en dispositivos como Pixel 8 Pro o Galaxy S24 sin depender tanto de la nube.

Más allá de la potencia en bruto, el gran valor de Gemini para Google está en su integración con el resto de servicios. Poco a poco se está conectando con Google Fotos, YouTube, Documentos, Gmail y otras herramientas clave, lo que le permite ofrecer experiencias de asistente personal mucho más profundas: desde resumir vídeos de YouTube hasta revisar presentaciones o redactar correos a partir de documentos ya existentes.

Gemini Live, por ejemplo, permite que la IA “vea” a través de la cámara del móvil y aporte sugerencias sobre lo que muestra el usuario, como organizar un escritorio lleno de cosas, dar ideas creativas a partir de una escena o ayudar a diagnosticar un objeto roto en casa. Además, es capaz de funcionar en más de 45 idiomas, lo que multiplica su alcance global.

Otras funciones avanzadas, como Deep Research o los “Gems” personalizables, apuntan en la misma dirección: automatizar tareas complejas y ofrecer asistentes hechos a medida para cada usuario. Deep Research genera informes estructurados con fuentes contrastadas, y los Gems permiten crear variaciones específicas de Gemini (por ejemplo, un Gem que escriba siempre correos en un tono concreto o que ayude a estudiar oposiciones).

Todo este despliegue hace que la seguridad y la ética no sean un detalle menor, sino una cuestión estructural. Si una IA tan profundamente integrada en la vida digital de millones de personas fuera trivialmente manipulable para producir desinformación, odio o instrucciones dañinas, el riesgo social sería enorme. De ahí que Google combine políticas de contenido, filtros automáticos, revisiones humanas y controles de usuario como los de actividad y permisos de apps.

Al final, la discusión sobre si “se puede desactivar la ética de Gemini 2.5 Pro” es, en buena medida, un choque entre dos visiones. Por un lado, la de quienes quieren modelos cuanto más abiertos y sin filtros mejor, especialmente para investigación y creatividad sin corsés; por otro, la de las grandes plataformas, que priorizan minimizar daños, aunque eso suponga bloquear algunas posibilidades legítimas o experimentales.

Gemini 2.5 Pro se mueve precisamente en esa tensión: es un modelo extremadamente capaz, con enormes posibilidades para programar, investigar, crear contenido o asistir en el día a día, pero al mismo tiempo está envuelto en salvaguardas que a veces se sienten torpes, inconsistentes o fáciles de esquivar con el tono adecuado del prompt. Por ahora, no hay forma oficial de apagar su ética; solo cabe conocer mejor sus límites y aprovechar lo que ofrece sin intentar forzarlo allí donde, por diseño, Google no quiere que llegue.

Qué datos recopilan los asistentes de IA y cómo protegerte
Artículo relacionado:
Qué datos recopilan los asistentes de IA y cómo protegerte de verdad