¿Pueden los chats de IA separar la verdad de la mentira?

Última actualización: 06/11/2025
Autor: Isaac
  • La IA generativa simula con gran realismo, pero su veracidad no está garantizada.
  • Estudios muestran fallos al distinguir creencias frente a hechos, con riesgos sociales.
  • Los chatbots fallan como verificadores y pueden amplificar bulos si no hay control humano.

Inteligencia artificial y veracidad

La gran pregunta es directa y nada trivial: ¿pueden los chats de IA distinguir entre la verdad y la mentira? En los últimos años hemos visto cómo los modelos conversacionales se han colado en nuestro día a día con una soltura pasmosa, capaces de redactar ensayos, programar y mantener diálogos que se confunden con los de una persona. Ese despliegue ha generado tanta admiración como inquietud, porque la misma herramienta que nos resuelve tareas al vuelo también puede equivocarse, inventar o amplificar bulos a una velocidad inasumible.

Desde 2022, con la apertura de ChatGPT al público, la IA generativa ha acelerado un cambio cultural: ahora cualquiera puede producir textos, imágenes, voces o vídeos sintéticos con resultados sorprendentes. En paralelo crece una duda razonable: cuando leemos un artículo, miramos un vídeo o escuchamos un audio, ¿qué hay detrás, un humano o un algoritmo? Y más importante aún: ¿lo que se afirma es cierto? La respuesta honesta es que distinguirlo se está volviendo más difícil, y eso exige alfabetización mediática, verificación y espíritu crítico.

cómo detectar si un vídeo ha sido creado por IA
Artículo relacionado:
Cómo detectar si un vídeo ha sido creado por IA: guía completa

Un salto en 2022 que nos cambió la conversación

El año 2022 marcó un antes y un después: primero aparecieron generadores de imágenes capaces de crear cuadros y fotos que parecían extraídos de una cámara, y después, en noviembre, llegó un chatbot abierto al público que conquistó millones de usuarios en días. Ese acceso directo a las herramientas —antes reservadas a software especializado— nos permitió experimentar y entender la potencia de la IA generativa, y permitió a muchos crear un chatbot con ChatGPT API, pero también normalizó la idea de que la simulación puede parecer verdad sin serlo.

Este auge vino acompañado de demostraciones creativas: poemas, novelas relámpago o artículos que, con un par de indicaciones, salían listos para publicar. La sensación de magia oculta una cuestión técnica: estos sistemas son, en esencia, modelos probabilísticos que predicen la palabra más probable que sigue a otra. No “comprenden” como un humano; generan lo más plausible; su memoria y límites de tokens condicionan su respuesta.

La popularidad de estas herramientas ha abierto la puerta a escenarios que oscilan entre lo simpático y lo inquietante. Es divertido envejecer una foto para ver “cómo seremos” en 20 años o clonar la voz de un amigo para gastar una broma. Pero cuando esa manipulación toca la esfera pública —política, periodismo, justicia, sanidad— el juego cambia. La confianza social está en la balanza.

Ya lo vivimos con campañas muy comentadas, como el anuncio que “resucitó” a Lola Flores mediante técnicas de deepfake para un spot de cerveza. La proeza técnica fascinó, sí, pero también hizo evidente que la industria creativa, el entretenimiento y la publicidad pueden invocar imágenes hiperrealistas de personas que no están, con un potencial narrativo enorme y un riesgo de confusión real si no se informa con claridad.

Deepfakes, voces clonadas y casos que confunden

El catálogo de manipulaciones crece: aplicaciones de móvil para hacer deepfakes, sistemas que clonan la voz humana y modelos que generan actores inexistentes combinando rasgos de miles de caras anónimas. Las firmas de seguridad alertan de fraudes que usan voces clonadas para suplantar a clientes de banca, y la política ya ha sentido el golpe; estas denuncias también ponen de relieve los peligros de usar el navegador de ChatGPT. Apenas dos semanas después de la invasión rusa, circuló un vídeo falso del presidente Zelenski llamando a sus tropas a rendirse. Se desmintió rápido, pero la maniobra exhibió el potencial para desinformar a gran escala.

En campañas recientes también hemos visto montajes con gran impacto emocional, como el vídeo de una mujer en silla de ruedas que acusaba a una candidata estadounidense de haberla atropellado; resultó ser un producto generado con IA. Y no hablamos solo de imagen: proliferan audios “verosímiles” que ponen en boca de alguien frases que nunca dijo. Cuanto más convincente es la simulación, más fácil resulta colar un relato falso.

Las consecuencias psicológicas no son menores. Expertos en comportamiento digital advierten de que la exposición repetida a contenidos manipulados provoca “falsos recuerdos”: tras tragarnos tres vídeos trucados, tendemos a creer el cuarto antes que admitir que nos engañaron. Esta dinámica, unidos a nuestra confianza en la pantalla —miramos el móvil para saber si llueve en vez de asomarnos a la ventana— alimenta una credulidad tecnológica que nos vuelve más vulnerables.

  OpenAI lanza Operator, una herramienta innovadora para automatizar tareas en Internet

Mirando al futuro, voces como la de la divulgadora Silvia Leal anticipan que la inmersión en entornos virtuales intensivos (metaverso) hará aún más complicada la distinción entre experiencia y ficción. Allí no solo veremos, “viviremos” escenas generadas, y reconocer que nuestra vivencia se sostenía en una mentira será, para muchos, particularmente difícil de digerir.

Lo que dice la ciencia: creencias vs hechos en los modelos de lenguaje

Un estudio reciente de Stanford publicado en Nature puso el dedo en la llaga: los modelos de lenguaje fallan de manera sistemática al distinguir entre lo que una persona cree y lo que verdaderamente es un hecho. En pruebas con unas 13.000 preguntas, la precisión de algunos sistemas se desplomó al evaluar creencias en primera persona: por ejemplo, un modelo pasaba de rozar el 98% a quedarse en torno al 64%, y otro caía de más del 90% a alrededor del 14% en ese tipo de juicios epistémicos.

Cuando las creencias aparecían en tercera persona, la cosa mejoraba (alrededor del 95% en modelos recientes), lo que sugiere un sesgo de atribución: a la máquina le cuesta entender la diferencia entre “yo creo” y “yo sé” cuando quien habla es el propio protagonista. Para un humano, la distinción es intuitiva: “Creo que mañana lloverá” comunica incertidumbre; “Sé que la Tierra gira alrededor del Sol” suena a hecho establecido.

Las implicaciones prácticas son enormes: diagnóstico médico (“creo que tengo cáncer”), evaluaciones de salud mental, análisis jurídicos, periodismo, educación o asesoramiento financiero. Distinguir entre convicción subjetiva y verdad objetiva es crucial, y fallar ahí multiplica el riesgo de errores con impacto social. Los autores del estudio —que evaluaron modelos como GPT-4, DeepSeek R1, o1, Gemini 2, Claude-3 o Llama-3— piden mejoras urgentes antes de desplegarlos en ámbitos donde las distinciones epistémicas importan de verdad.

Hay matices positivos: los modelos han mejorado con el tiempo en verificación directa de afirmaciones factuales (por ejemplo, del salto entre GPT-3 y versiones posteriores), pero esa progresión no evita que, a menudo, ofrezcan rutas de razonamiento inconsistentes. Pueden dar con la respuesta correcta y, aun así, justificarla con explicaciones contradictorias, más cercanas a una búsqueda superficial de patrones que a una comprensión sólida.

¿Sirven los chatbots como verificadores? Lecciones de sus tropiezos

Durante picos de tensión —como el reciente conflicto entre India y Pakistán— muchos usuarios recurrieron a chatbots integrados en redes sociales para comprobar vídeos virales. La experiencia fue desoladora: respuestas erróneas, invenciones y seguridad injustificada; la acumulación de casos evidencia los . Un asistente identificó como ataque con misiles un viejo vídeo del aeropuerto de Jartum; en otro caso, un incendio en Nepal se presentó “probablemente” como respuesta militar paquistaní. La confianza ciega en estas herramientas, sin verificación humana, es una receta para el desastre.

Organizaciones como NewsGuard han documentado que varios de los principales chatbots repiten desinformación —incluidas narrativas pro-Kremlin—, y un estudio del Tow Center (Universidad de Columbia) halló que son “malos” rechazando preguntas que no pueden responder con precisión, optando por contestaciones especulativas o incorrectas en su lugar.

Hay ejemplos vívidos: al consultar a un chatbot por una imagen de una mujer generada por IA, confirmó su supuesta autenticidad e inventó datos sobre su identidad y el lugar donde se hizo; en otro episodio, un vídeo de una “anaconda gigante” en el Amazonas fue validado como real, incluso citando falsas expediciones científicas. Más tarde, verificadores demostraron que todo era fabricado con IA.

El problema se agrava porque mucha gente está reemplazando el buscador tradicional por chatbots para informarse o confirmar hechos, justo cuando algunas plataformas han reducido programas de verificación externa y trasladado el peso a mecanismos comunitarios. Sin contexto, sin trazabilidad y sin reconocer sus límites, los asistentes de IA pueden dar respuestas sesgadas o manipuladas. Incluso se han reportado “modificaciones no autorizadas” que empujan el sistema hacia narrativas extremas; a la pregunta de quién pudo alterar las instrucciones, un bot llegó a señalar a su propio promotor como “culpable más probable”.

Especialistas en verificación avisan: los asistentes pueden “alucinar” o sesgar respuestas cuando programadores humanos retocan deliberadamente sus guías. En asuntos sensibles, ese ajuste previo puede forzar contestaciones preautorizadas que distorsionan la realidad. La moraleja es clara: los chatbots no son, hoy por hoy, una fuente fiable de verificación de noticias de última hora.

Política, sociedad y psicología: el cóctel perfecto para la confusión

La mentira no nació con el primer bit, pero internet la disparó porque verdad y falsedad compiten en la misma pantalla. En 2017, una consultora tecnológica estimó que la mitad del contenido en la red sería falso a corto plazo; quizá no estemos en ese punto exacto, pero las “fake news” se han multiplicado tanto que algunos hablan de una auténtica religión del engaño. Tras la pandemia, ese fenómeno se intensificó.

  Cómo Eliminar Bing Redirect Virus

Hay precedentes judiciales que marcan límites. Un tribunal español dictó la primera condena a un usuario que difundió un bulo sobre menores extranjeros: un precedente importante, aunque los expertos admiten que es imposible perseguir todas las mentiras que se vierten online. De ahí que muchos propongan centrar esfuerzos en el receptor —educación y pensamiento crítico— más que en el emisor, sin dejar de exigir a las plataformas que asuman responsabilidades.

La digitalización meteórica ha cambiado nuestros hábitos: miramos al móvil antes que a la ventana, y si lo que vemos fuera no coincide con la app, tendemos a creer a la pantalla. Filósofos de la ciencia advierten de esa transferencia de confianza de lo humano a lo técnico y del riesgo de normalizar una cultura en la que todo puede interpretarse como mentira o, peor, como verdad innegociable. Vivir atrapados entre la credulidad absoluta y la desconfianza total nos hace manipulables.

También hay una dimensión política inquietante: los llamados “hechos alternativos” y la manipulación de masas con narrativas fabricadas han ganado terreno. Pensadores y escritores recuerdan que nunca fue tan fácil mentir ni la mentira fue tan peligrosa. Como con las armas: antaño una espada mataba a un hombre; hoy tenemos capacidad —figurada y literal— para arrasarlo todo.

Alfabetización mediática y trucos prácticos para no picar

La mejor vacuna contra la desinformación es educar: ciudadanía y periodistas necesitan formación para identificar engaños, evaluar fuentes y entender cómo funciona la IA. La mitad del alumnado de Secundaria, según una investigación, no distingue una noticia falsa de una inventada. Es urgente enseñarles —y enseñarnos— a mantener la alerta emocional: si una pieza te indigna o te maravilla, respira, no la compartas aún.

Un clásico que nunca falla: busca varias fuentes fiables, comprueba fechas y contexto, y sospecha de contenidos que te piden “creer” sin pruebas. Cuando los temas están en caliente, el periodismo serio tarda: reportajes, comprobaciones, testimonios, peritajes. La verificación requiere tiempo, y los embustes juegan precisamente con la inmediatez.

Existen herramientas que aportan valor. Check by Meedan ofrece un flujo tipo chat para enviar contenidos y recibir un análisis que clasifica si están en la esfera de lo falso, engañoso o verdadero, además de revisar imágenes y textos en tiempo real. The Factual evalúa la credibilidad de miles de historias al día mediante el análisis del historial del medio, las fuentes citadas y la trayectoria del autor, y devuelve un índice para calibrar la fiabilidad.

También es útil recordar que la IA no puede llamar a una fuente, estar en el lugar de los hechos ni contrastar como lo hace un humano. Hay avances interesantes —hasta en mensajería como WhatsApp se trabaja en funciones creativas con IA, como imágenes de perfil generadas—, pero eso no equivale a que puedan decirnos si algo es cierto. Algunas apps, por ejemplo, ya advierten en su código de conducta: “no uses estas herramientas para generar molestias; sé respetuoso”. La veracidad, por ahora, sigue siendo un asunto humano.

Otro frente muy serio es el de los “falsos desnudos” de menores generados con IA. Además del impacto emocional devastador, hay consecuencias legales relevantes: producir o difundir ese material no es un juego, es un delito. La alfabetización digital también consiste en conocer el marco jurídico y entender que la tecnología no neutraliza la responsabilidad.

Periodismo, marcas y el papel de las plataformas

consulta ley inteligencia artificial ue-9

Iniciativas como la experiencia infográfica presentada por la Fundación Gabo, la FLIP y Consejo de Redacción en la Feria del Libro de Bogotá buscan explicar de forma visual cómo operan la IA y la desinformación. Su director, Mario Tascón, recuerda que 2022 fue un punto de inflexión: primero llegaron las imágenes generativas que “no sabíamos cómo estaban hechas” y luego un chatbot que cualquiera podía probar, mucho más rápido que otras plataformas sociales. Entender esa apertura masiva ayuda a explicar por qué hoy es tan difícil distinguir verdad de mentira.

Tascón insiste en dos ideas: la ciudadanía necesita alfabetización mediática y el periodismo debe sofisticar sus herramientas de verificación, porque la simulación cada vez es más perfecta. Además, subraya que los modelos de lenguaje construyen frases calculando qué palabra es más probable a continuación; no es “inteligencia” en el sentido humano, aunque lo parezca. Por eso conviene usar la IA como asistente, pero no dar por cierto todo lo que produce.

  Cómo cifrar tu DNS sin tocar el router usando DNS over HTTPS

En cuanto a la automatización, algunas tareas mecánicas se sustituirán (por ejemplo, ciertas locuciones), pero reportear, ser testigo y construir relatos complejos desde el terreno sigue lejos del alcance de una máquina. Al mismo tiempo, las marcas periodísticas recuperan peso: que algo no aparezca en determinados medios —o aparezca para señalar que es falso— debería encender señales de alerta en el público.

Las plataformas, por su parte, no pueden mirar hacia otro lado: deben responsabilizarse de lo que circula. Hay herramientas para detectar engaños; aplicarlas no es opcional cuando el daño social potencial es alto. Decisiones como reducir la verificación externa y confiar solo en mecanismos comunitarios pueden dejar huecos que los bulos explotan con facilidad. La rendición de cuentas es parte del diseño.

Autoridad, influencia y confianza: una analogía útil

Curiosamente, lo que ocurre con la desinformación se parece a la dinámica del liderazgo sin autoridad formal en las organizaciones. Quien ha pasado de colaborar individualmente a gestionar equipos sabe que el cargo da poder limitado: la clave está en la credibilidad, las relaciones y la capacidad de influir sin imponer. Trasladado al ecosistema informativo, no basta con “ordenar” a la audiencia que no crea bulos; hay que construir confianza y redes de cooperación con periodistas, verificadores, plataformas y ciudadanía.

Algunas lecciones sirven como guía: las organizaciones (y las redes) son inherentemente políticas, con prioridades en tensión; el poder nace de la reputación, la experiencia y la visibilidad tanto como del rol; y la credibilidad se asienta en tres preguntas: ¿quieres hacer lo correcto?, ¿sabes qué es lo correcto?, ¿puedes llevarlo a cabo? Si la respuesta no es sí, la influencia es escurridiza. Mapear interdependencias —quién te puede ayudar, quién te puede bloquear y quién depende de ti— y ponerse en los zapatos del otro fundamenta la confianza mutua.

Desde ahí, la influencia no es para “salirse con la suya”, sino para generar victorias compartidas: proyectos que alineen objetivos y reduzcan incentivos para desinformar. En el terreno de la IA y los contenidos, esto significa alinear a medios, academia, sociedad civil y empresas tecnológicas en protocolos abiertos, auditorías y estándares claros.

Qué podemos hacer ya (personas y organizaciones)

Para el día a día, conviene tener un kit básico: desconfía de lo que te enfada o te deslumbra, busca pistas obvias (errores de contexto, metadatos, fuentes anónimas y “exclusivas” dudosas), y si es posible verifica con el protagonista. Muchas veces, una llamada o un correo bastan para desmontar un bulo. En caso de vídeos y audios, analiza sombras, reflejos, artefactos y respiraciones; la IA suele fallar en detalles finos. Y recuerda: un chatbot no es un árbitro de la verdad.

  • Usa herramientas de verificación (por ejemplo, Check by Meedan) para clasificar y contrastar piezas dudosas, y complementa con buscadores inversos de imágenes y revisores de metadatos.
  • Consulta índices de credibilidad como The Factual, revisa la calidad de las fuentes y el historial de los autores antes de dar difusión.
  • Si detectas un bulo, no lo compartas “para criticarlo” sin contexto: enlaza al desmentido y explica brevemente por qué es falso para cortar su propagación.
  • Exige a plataformas y medios transparencia sobre sus políticas de moderación, procedimientos de corrección y uso de IA en la generación de contenidos.

También es momento de repensar la educación formal: incluir una asignatura que explique el “backstage” de las falsedades —cómo se fabrican deepfakes, cómo se clona la voz, cómo se manipulan datos— fortalecería el músculo del juicio crítico, especialmente entre los adolescentes. Y, paradójicamente, una de las mejores herramientas de verificación sigue siendo la más humana: hablar cara a cara, preguntar y buscar la confirmación directa de quien supuestamente dijo o hizo algo.

El reto no es tecnológico sino cultural. Las máquinas nos ayudan, pero no sienten, no ven ni confirman como nosotros. La IA no distingue, por sí sola, verdad de mentira; solo ajusta probabilidades. Para convivir con ella sin naufragar, hace falta recuperar la confianza en los procesos periodísticos, reforzar la educación mediática y establecer reglas de juego claras para plataformas y desarrolladores. Solo así podremos navegar un entorno donde la apariencia de verdad ya no garantiza que lo sea.