Evolución de los CAPTCHA: de textos borrosos a IA invisible

Última actualización: 04/04/2026
Autor: Isaac
  • Los CAPTCHA nacen para frenar el abuso automatizado y evolucionan desde simples textos distorsionados hasta sofisticados sistemas invisibles basados en comportamiento.
  • reCAPTCHA convierte la verificación humana en un recurso para entrenar IA, primero para OCR y después para reconocimiento de imágenes, impulsando a la vez su propia obsolescencia.
  • La inteligencia artificial sirve tanto para reforzar como para romper CAPTCHAs, generando una carrera continua donde seguridad, usabilidad, accesibilidad y privacidad deben equilibrarse.

evolucion de los captcha

Los CAPTCHA han pasado de ser simples textos borrosos a complejos sistemas invisibles movidos por inteligencia artificial. En apenas un par de décadas, estos pequeños retos se han convertido en un auténtico campo de batalla entre desarrolladores de seguridad, atacantes automatizados y, ahora, modelos de IA capaces de imitarnos casi a la perfección.

Detrás de esos cuadros de “No soy un robot” o de las típicas fotos con semáforos, pasos de peatones o bocas de incendio hay mucha más historia de lo que parece. Nacieron para frenar el spam y los abusos de bots, han ayudado a digitalizar libros y a entrenar sistemas de visión artificial, y hoy se reinventan como filtros invisibles que analizan nuestro comportamiento para decidir si realmente somos humanos.

Qué es un CAPTCHA y por qué se inventó

Un CAPTCHA es una “Prueba de Turing pública y completamente automatizada” diseñada para diferenciar, sin intervención humana directa, entre una persona real y un programa automatizado. El concepto cristalizó en 2003 gracias a Luis von Ahn, Manuel Blum, Nicholas J. Hopper y John Langford, aunque las primeras ideas prácticas llevaban circulando desde finales de los 90.

El problema de fondo era sencillo de entender, pero muy serio: los servicios gratuitos en Internet eran pasto de los bots. Formularios de registro masivo, creación automática de cuentas de correo para enviar spam, inundación de foros y encuestas con respuestas falsas o uso fraudulento de plataformas para montar infraestructuras de botnets. Todo esto rompía el supuesto básico de muchos modelos de negocio online: que los ojos que veían la publicidad y usaban los servicios eran humanos, no scripts.

Los primeros CAPTCHA que se popularizaron consistían en introducir una cadena de caracteres mostrados en una imagen distorsionada. La apuesta era clara: un humano, con algo de esfuerzo, podía leer el texto; un sistema de reconocimiento óptico de caracteres (OCR), en cambio, se estrellaba con ese ruido visual.

Con el tiempo, investigadores y desarrolladores vieron que cualquier problema difícil para la IA del momento —reconocimiento de caracteres, de imágenes o de voz— se podía convertir en candidato a prueba CAPTCHA. Eso sí, siempre manteniendo tres propiedades clave: fácil para humanos, sencillo de generar y corregir en el servidor y complicado para un bot.

Los pioneros: de Altavista a la formulación académica

A finales de los 90, servicios como Altavista y PayPal empezaron a lidiar con el spam a una escala desconocida. En 1997, el científico informático Mark D. Lillibridge, en Carnegie Mellon, ya exploraba sistemas de verificación visual para combatir el abuso en foros online. Poco después, en 2001, Gausebeck y Levchin en PayPal implementaron mecanismos similares para evitar registros automáticos masivos.

En esta etapa temprana se usaban sobre todo textos y números distorsionados, con ruido de fondo y tipografías retorcidas para complicarles la vida a los bots. La idea era extremadamente pragmática: si el usuario era capaz de escribir correctamente lo que veía en pantalla, se le consideraba humano y se le dejaba continuar con el proceso.

En paralelo, desde la academia, von Ahn, Blum, Hopper y Langford dieron nombre y estructura formal a este enfoque: CAPTCHA como test de Turing a la inversa, en el que es el sistema quien pone a prueba al usuario. Esta formulación marcó el punto de partida de una carrera armamentística que sigue viva hoy.

CAPTCHA de texto: auge, variantes y primeras brechas

Durante la primera década de los 2000, los CAPTCHA basados en texto fueron la norma. Eran relativamente fáciles de implementar, consumían pocos recursos y funcionaban razonablemente bien frente a los bots de entonces.

Para reforzar la seguridad, se introdujeron múltiples variantes: ruido visual más agresivo, superposición de líneas, rotaciones, fuentes deformadas, colores similares entre texto y fondo, e incluso el llamado “método del tachado”, donde las letras se cruzan con trazos del mismo color para complicar la segmentación por OCR.

Sin embargo, la investigación en visión por computador y redes neuronales empezó a ponerse al día. En 2003, Mori y Malik mostraron que podían romper sistemas como GIMPY y EZ-GIMPY con tasas de acierto muy altas usando técnicas de segmentación y reconocimiento de objetos. Años más tarde, trabajos como el de Goodfellow y colaboradores demostraron que, con redes neuronales convolucionales, se podían resolver CAPTCHAs de texto muy complejos con precisión cercana al 100 %.

En la práctica, el eslabón crítico era la segmentación: separar el texto útil del ruido y de las líneas añadidas. Los humanos, gracias a nuestra capacidad de percepción global, seguíamos siendo mejores en ese paso, pero los algoritmos fueron recortando distancias hasta convertir muchos de estos retos en un trámite para los bots bien entrenados.

reCAPTCHA v1: cuando resolver un CAPTCHA también digitalizaba libros

Ante los límites de los CAPTCHAs textuales clásicos, Luis von Ahn dio otra vuelta de tuerca y lanzó reCAPTCHA v1 en 2007, con un planteamiento tan ingenioso como práctico: aprovechar el esfuerzo humano no solo para filtrar bots, sino también para mejorar el OCR y digitalizar textos impresos.

En lugar de una única palabra generada artificialmente, reCAPTCHA mostraba dos fragmentos de texto real escaneado. Uno de ellos era la “palabra de control”, ya reconocida correctamente por dos motores OCR distintos; el otro, una palabra problemática que las máquinas no habían logrado interpretar con seguridad.

  Riesgos del puerto USB del coche: privacidad, batería y usos

Si el usuario acertaba la palabra de control, el sistema asumía que era humano y, de paso, daba por buena la interpretación de la segunda palabra. Cuando muchos usuarios coincidían en la misma transcripción para ese segundo término, reCAPTCHA consolidaba el resultado y lo utilizaba para mejorar la digitalización de libros en proyectos como Internet Archive, el New York Times o, más adelante, Google Books.

Este modelo cumplía un doble objetivo: aumentar la dificultad para los bots (al tratarse de palabras reales con distorsiones complejas, no patrones sintéticos repetitivos) y transformar millones de pequeños retos en una enorme fuerza de trabajo distribuida para refinar algoritmos de OCR.

La jugada fue tan brillante que en 2009 Google adquirió reCAPTCHA y lo integró en su ecosistema, a la vez que lo ofrecía como servicio a terceros. El giro irónico llegó después: el propio éxito de reCAPTCHA, y los datos que generaba, contribuyeron a mejorar los algoritmos de IA hasta el punto de volver obsoletos muchos CAPTCHAs de texto, que empezaron a ser resueltos por máquinas con tasas superiores al 99 %.

De palabras a imágenes: la transición hacia reCAPTCHA de reconocimiento visual

Con el avance imparable de los sistemas de OCR, Google reaccionó introduciendo reCAPTCHA basados en imágenes. Hacia 2012 empezaron a aparecer retos en los que el texto distorsionado se sustituyó por fotografías reales, en buena parte tomadas de Google Street View.

En lugar de escribir letras, los usuarios tenían que identificar objetos del mundo real: farolas, taxis, señales de tráfico, autobuses, escaparates… A priori, reconocer elementos en escenas complejas era un problema en el que los humanos seguían teniendo ventaja notable respecto a los algoritmos de visión existentes.

Estos nuevos CAPTCHAs no solo esquivaban las técnicas de OCR, sino que también resultaban más naturales para usuarios de móvil, acostumbrados a interactuar con imágenes en pantallas táctiles. Además, igual que antes se entrenaban sistemas OCR, ahora se alimentaban modelos de reconocimiento de imágenes gracias a la clasificación masiva realizada por millones de personas.

No obstante, la fiesta duró poco. En pocos años, los modelos de visión por computador mejoraron drásticamente y comenzaron a superar a los humanos en tareas de clasificación de imágenes, alcanzando tasas de éxito superiores al 90 % donde las personas apenas llegaban al 80 %. De nuevo, lo que había sido diseñado como “fácil para humanos, difícil para bots” empezaba a invertirse.

Tipos de CAPTCHA: del texto y las imágenes a los juegos y el comportamiento

La necesidad de mantener la delantera frente a los atacantes ha dado lugar a una gran diversidad de formatos de CAPTCHA, cada uno con sus pros y sus contras en términos de seguridad, usabilidad y accesibilidad.

Entre los tipos más habituales encontramos los CAPTCHA textuales clásicos, con caracteres alfanuméricos distorsionados y ruido visual; combinan relativa sencillez de generación con una eficacia cada vez más discutible ante los avances en IA.

También se han popularizado los CAPTCHAs basados en cálculos matemáticos, donde el usuario resuelve pequeñas operaciones (“suma 4 y 9”, “escribe la primera cifra del resultado de 7×7”, etc.). Para frenar a los bots, el enunciado suele incluir texto redundante o formulaciones enrevesadas que dificultan su parseo automático.

Otra familia son los retos de palabras y preguntas lógicas: repetir una palabra dada, escribir el nombre de un color mostrado, responder a cuestiones de cultura general (“¿de qué color es el caballo blanco de Santiago?”) o propias del contexto de la web.

Existen, además, CAPTCHAs basados en redes sociales, donde el usuario se valida a través de una cuenta de terceros (Google, Facebook, etc.), o en límite de tiempo, midiendo cuánto tarda en completar un formulario, bajo la suposición de que un bot puro lo haría a velocidad antinatural.

Otros sistemas juegan con campos ocultos en formularios: para la persona solo son visibles ciertos campos, mientras que el bot ve todos y tiende a rellenarlos indiscriminadamente, delatándose así como automatizado.

En el terreno visual, además de los famosos paneles de Street View, encontramos CAPTCHAs gráficos donde se nos pide marcar todas las imágenes con un elemento concreto, ubicar correctamente piezas, ajustar la orientación de una fotografía o resolver pequeñas tareas de arrastrar y soltar.

Para mejorar la accesibilidad, surgieron los CAPTCHAs auditivos, que leen secuencias de números o palabras que el usuario debe transcribir. Aunque sirven como alternativa para personas con baja visión, no siempre están bien adaptados al idioma ni se escuchan con claridad, y resultan complicados para quienes tienen problemas de audición.

Intentando equilibrar seguridad y experiencia de usuario, han aparecido también los CAPTCHAs lúdicos o gamificados (SweetCaptcha, FunCaptcha y similares): minijuegos en los que hay que encajar piezas de puzzle, rotar imágenes hasta que se vean rectas o colocar iconos en la posición correcta. La idea es reducir la frustración del usuario manteniendo un nivel de dificultad razonable para los bots.

Finalmente, los enfoques más recientes se basan en el análisis de conducta. En lugar de centrarse solo en un reto puntual, observan cómo se mueve el ratón, cómo se escribe en el teclado, el tiempo invertido en ciertas acciones, la huella del navegador, la reputación de la IP o el contexto de red para evaluar la probabilidad de que detrás haya una persona real.

reCAPTCHA v2 y el famoso “No soy un robot”

En 2014, Google lanzó reCAPTCHA v2, también conocido como “No CAPTCHA reCAPTCHA”, que supuso un cambio importante de enfoque. El elemento más visible era la casilla de verificación “No soy un robot”, pero el auténtico protagonista estaba detrás: un motor avanzado de análisis de riesgo.

Este motor evaluaba múltiples señales de comportamiento y contexto antes de decidir si el usuario debía enfrentarse a un reto adicional. En muchos casos, bastaba con hacer clic en la casilla para pasar automáticamente, sin desplegar ningún puzzle visual.

  Nueva estafa en Fortnite: menores, principales víctimas de engaños online

Cuando el sistema detectaba patrones sospechosos o no tenía suficiente confianza, aparecían retos de imágenes en cuadrícula con semáforos, coches, pasos de peatones o escaparates. Aquí se combinaban las ideas de los CAPTCHAs visuales con la evaluación continua del riesgo.

Estudios como el de Searles y colaboradores, con miles de usuarios durante más de un año, mostraron que los desafíos de casilla de verificación eran percibidos como “fáciles”, con tiempos medios de resolución inferiores a dos segundos y buenas puntuaciones de usabilidad. Por contra, los retos de imagen se consideraban “molestos”, con tiempos cercanos a los diez segundos y peor valoración en escalas de experiencia de usuario.

En paralelo, la comunidad de seguridad empezó a analizar la robustez real de reCAPTCHA v2. En 2016, Sivakorn y su equipo demostraron que se podía automatizar la resolución de muchos de estos retos combinando técnicas de aprendizaje profundo para reconocimiento de imágenes con estrategias de explotación del flujo de verificación, alcanzando tasas de éxito cercanas al 70 % en retos visuales.

Trabajos posteriores, como el de Hossen y otros, llegaron a obtener tasa de acierto superiores al 90 % en pruebas en línea, a menudo superando a servicios de resolución de CAPTCHA realizados por humanos contratados. De nuevo, la IA empezaba a ganar ventaja, tanto en precisión como en velocidad.

CAPTCHAs invisibles, análisis de comportamiento y el papel dual de la IA

La evolución natural de estos sistemas llevó a propuestas en las que el usuario casi no percibe que está siendo evaluado. Empresas como Google o Cloudflare han apostado por mecanismos que cargan un script junto con la página y analizan el comportamiento en segundo plano.

Se tienen en cuenta señales como la dinámica del ratón (velocidad, micro-pausas, trayectorias más o menos erráticas), los patrones de tecleo (intervalos entre pulsaciones, correcciones, uso de atajos), el historial de navegación disponible, las cookies, la huella digital del navegador y el contexto de red (IP, país, uso de VPN o proxies, reputación de la conexión, etc.).

Con todo ello, el sistema calcula una puntuación de riesgo que determina si se le da vía libre al usuario, se le muestra un reto adicional o se le bloquea directamente. En teoría, buena parte de las personas apenas notará que ha pasado por una verificación: lo importante ya no es el puzzle puntual, sino el perfil de comportamiento global.

Este modelo está especialmente presente en soluciones como reCAPTCHA v3, lanzado a finales de 2018. Aquí desaparecen por completo los retos visibles estándar: el sistema opera en segundo plano y asigna una puntuación entre 0.0 (muy probablemente bot) y 1.0 (muy probablemente humano) a cada interacción con la web.

Los administradores pueden usar esa puntuación para tomar decisiones a medida: permitir ciertas acciones solo a usuarios con un score alto, imponer retos extra a quienes se quedan en una zona gris, o bloquear directamente actividades de riesgo cuando el sistema sospecha que se trata de automatización maliciosa.

Todo esto ilustra a la perfección el papel dual de la IA en ciberseguridad: se utiliza para construir defensas cada vez más sofisticadas (análisis de comportamiento, modelos de riesgo, detección de patrones anómalos), pero también es el arma principal de quienes intentan vulnerar esas mismas defensas. La carrera es constante, y cada avance en técnicas de ataque empuja a desarrollar mecanismos de protección más complejos.

IA, bots avanzados y el “fin” de los puzzles clásicos

El desarrollo reciente de modelos de lenguaje y visión —GPT-3, GPT-4 y sucesores, junto con redes de visión avanzadas— ha hecho que la línea entre comportamiento humano y automatizado sea cada vez más borrosa. Los bots modernos pueden escribir texto convincente, resolver problemas lógicos y tomar decisiones en interfaces web con gran eficacia.

Los estudios sobre reCAPTCHA v2 muestran que los sistemas automatizados ya pueden batir a muchos humanos en retos visuales, tanto en tasa de acierto como en tiempo de resolución. El lema clásico de “fácil para los humanos, difícil para las máquinas” deja de ser cierto en numerosos escenarios.

Casos recientes van aún más allá: algunos agentes de IA capaces de ver la pantalla y actuar sobre ella han sido vistos superando sin demasiados problemas sistemas como el Turnstile de Cloudflare. Este tipo de soluciones analiza señales como el movimiento del ratón, el tiempo hasta hacer clic o la huella de navegador, y si tiene dudas muestra retos adicionales.

Lo llamativo es que, en algunas demostraciones, el propio agente de IA describe en voz alta o por texto lo que está haciendo (“voy a hacer clic en la casilla para verificar que soy humano”), no porque tenga conciencia de sí mismo, sino porque ha sido entrenado para imitar el discurso y las acciones de un usuario real. El sistema no “sabe” que no es humano, simplemente optimiza sus acciones para lograr su objetivo.

¿Quiere decir esto que los CAPTCHA están condenados a desaparecer? No exactamente. Más bien se están transformando en barreras de coste y fricción para los atacantes: pueden no ser impenetrables, pero sí conseguir que desarrollar y mantener un bot eficaz sea tan caro que deje de compensar económicamente a gran escala.

Limitaciones, accesibilidad y mercado negro de resolución de CAPTCHAs

Mientras tanto, los problemas prácticos siguen ahí. Muchos CAPTCHAs complejos son difíciles incluso para los usuarios legítimos, especialmente cuando el ruido visual es extremo o los enunciados son confusos. Investigaciones de principios de la década pasada ya señalaban que en ocasiones resultaban un auténtico reto cognitivo hasta para internautas experimentados.

  Lightmatter apuesta por la fotónica para revolucionar los chips de inteligencia artificial

La accesibilidad es uno de los puntos más conflictivos. Los CAPTCHAs visuales son una barrera enorme para personas con discapacidad visual, y sus equivalentes de audio tampoco son siempre una solución adecuada: pueden ser ininteligibles, no estar bien localizados en el idioma o resultar inaccesibles para quienes tienen problemas de audición.

Han surgido iniciativas como proyectos de CAPTCHA accesibles, pensados específicamente para lectores de pantalla y tecnologías de apoyo, pero su adopción es desigual y muchas implementaciones siguen dejando fuera a parte de la población.

Por otro lado, han florecido los servicios de resolución de CAPTCHA, tanto automatizados como basados en mano de obra humana. En estos últimos, trabajadores de países con salarios muy bajos resuelven miles de CAPTCHAs por céntimos, abasteciendo a spammers y operadores de bots. Los precios pueden bajar a menos de un dólar por cada mil CAPTCHAs, lo que hace económicamente viable el uso masivo de este tipo de servicios para ciertos ataques.

Este fenómeno desvirtúa parcialmente el objetivo inicial del CAPTCHA: si un atacante puede subcontratar a personas reales para que resuelvan los retos, el sistema deja de ser un filtro fiable entre humano y máquina, y pasa a ser solo una medida de encarecimiento y ralentización de ataques.

CAPTCHA, modelos de negocio y ética de los datos

Más allá de lo técnico, la historia de los CAPTCHA también abre debates éticos y de modelo de negocio. Durante años, millones de usuarios han resuelto microtareas invisibles —etiquetar imágenes, reconocer objetos, transcribir textos difíciles— que han servido para entrenar sistemas de IA y mejorar productos comerciales.

En el caso de los CAPTCHAs de Google, este esfuerzo colectivo ha beneficiado a servicios de reconocimiento visual, conducción autónoma y moderación de contenidos, entre otros. Sin que la mayoría de las personas fuera plenamente consciente, sus clics ayudaban a refinar modelos que hoy se usan en aplicaciones de alto valor económico.

Esto plantea preguntas sobre la propiedad del trabajo digital distribuido y quién se beneficia de él. Desde la perspectiva de los fundadores de startups y responsables de producto, el ejemplo de los CAPTCHA muestra tanto el potencial de aprovechar microinteracciones humanas para entrenar modelos como el riesgo de caer en prácticas poco transparentes o percibidas como explotadoras.

La clave, cada vez más, pasa por diseñar sistemas que integren ética, privacidad y transparencia desde el principio, explicando qué datos se recogen, con qué fin se usan y qué obtiene el usuario a cambio, más allá de poder completar un formulario sin ser bloqueado.

Retos actuales y futuro probable de los CAPTCHA

Hoy los diseñadores de sistemas CAPTCHA se enfrentan a un delicado equilibrio entre seguridad, usabilidad, accesibilidad y privacidad. Endurecer demasiado los retos reduce el valor para los atacantes, pero también dispara la frustración de los usuarios y las tasas de abandono de formularios o procesos de compra.

El auge de la IA avanzada obliga a replantear estrategias. Es probable que veamos un aumento de CAPTCHAs personalizados y adaptativos, que ajusten el tipo y la dificultad del desafío según el perfil de riesgo de cada interacción. De igual modo, crecerá la importancia de métodos alternativos de autenticación, como factores de doble verificación, biometría conductual y análisis continuo del comportamiento.

También es previsible que ganen terreno los CAPTCHAs basados en tareas de razonamiento o sentido común, donde lo importante no sea tanto reconocer una imagen concreta como entender una situación, detectar el elemento que “no encaja” o resolver pequeños acertijos lógicos que, por ahora, suponen un quebradero de cabeza para los modelos de IA.

Todo esto se combinará con enfoques híbridos que mezclen análisis pasivo en segundo plano, retos interactivos solo cuando sea necesario y señales externas (reputación de IP, historiales de abuso, etc.). El objetivo no es que el usuario esté constantemente resolviendo puzzles, sino que la verificación pase lo más desapercibida posible cuando se trata de personas legítimas.

Al mismo tiempo, las regulaciones de privacidad como el GDPR europeo o la CCPA en California obligan a revisar con lupa qué datos se recogen y cómo se procesan. Los sistemas que dependen fuertemente del seguimiento de comportamiento deberán encontrar maneras de cumplir la normativa sin perder eficacia, lo que añade otra layer de complejidad al diseño.

En este contexto, las empresas que implementan medidas de ciberseguridad —ya sea mediante soluciones propias o apoyándose en proveedores cloud como AWS o Azure— tienen que valorar cómo integrar los CAPTCHA en una estrategia de defensa más amplia, donde convivan con detección de anomalías vía analítica avanzada, reglas de negocio, cortafuegos de aplicaciones web y controles de acceso reforzados.

Después de todo este recorrido, se entiende mejor por qué esas pruebas “pesadas” que nos piden reconocer semáforos o marcar una casilla son mucho más que un simple trámite molesto: los CAPTCHA condensan la evolución de la seguridad en la web, la lucha constante entre bots y defensores, el uso masivo del trabajo humano para entrenar IA y el giro reciente hacia sistemas invisibles basados en comportamiento. Su forma seguirá cambiando, pero mientras exista la necesidad de distinguir entre accesos legítimos y automatización maliciosa, seguirán siendo una pieza clave en el rompecabezas de la ciberseguridad moderna.

estafas de los captcha españa-0
Artículo relacionado:
Estafas de los CAPTCHA en España: Riesgos y cómo protegerse