Glosario de términos que debes conocer sobre IA

Última actualización: 16/09/2025
Autor: Isaac
  • Fundamentos clave: tipos de aprendizaje, redes neuronales y métricas para evaluar modelos.
  • Lenguaje, visión y voz: LLM, NLG, OCR, reconocimiento de voz y aplicaciones prácticas.
  • Ética y calidad: sesgo, XAI, alucinaciones y buenas prácticas con datos y validación.

Glosario de términos de inteligencia artificial

La inteligencia artificial está en todas partes y crece a un ritmo vertiginoso, algo que puede ser tan emocionante como abrumador. Para orientarte sin perderte entre siglas y palabrejas, hemos preparado un glosario práctico que reúne definiciones claras y ejemplos útiles de los términos más importantes que hoy marcan el rumbo de la IA.

Este contenido aglutina y reinterpreta, con un enfoque didáctico, lo esencial de distintos recursos de referencia. El objetivo es que tengas una base sólida que te permita comprender conceptos, detectar oportunidades y usar la IA con criterio en tus proyectos personales o profesionales.

Qué es la IA y por qué importa

Conceptos clave de IA

La inteligencia artificial (IA) es la disciplina que busca crear sistemas capaces de realizar tareas que normalmente requieren inteligencia humana, como aprender, razonar, percibir y tomar decisiones. La IA se apoya en datos, algoritmos y potencia de cómputo para resolver problemas a gran escala.

Existen distintos niveles y enfoques: desde la IA estrecha o débil, especialista en tareas concretas, hasta la idea de una IA general o fuerte (IAG), con capacidades cognitivas comparables a las humanas. También se habla de IA reactiva, de memoria limitada, híbrida o incluso de superinteligencia como escenario hipotético.

Modelos, algoritmos y tipos de aprendizaje

Un modelo es una representación matemática entrenada para predecir, clasificar o generar resultados. Se construye con datos y se ajusta mediante algoritmos que definen cómo aprender. En IA se utilizan paradigmas como el aprendizaje supervisado, no supervisado y por refuerzo, además de variantes como el aprendizaje multitarea o por transferencia.

Aprendizaje supervisado: el modelo entrena con ejemplos etiquetados para aprender a predecir salidas correctas. Es el enfoque típico para clasificación (spam/no spam) o regresión (precios). Aprendizaje no supervisado: descubre estructuras ocultas como clústeres sin etiquetas previas, útil para segmentación y detección de anomalías. Aprendizaje por refuerzo: un agente aprende a base de recompensas y penalizaciones mientras interactúa con un entorno (robótica, juegos, control).

Otros conceptos clave que verás a menudo son el aprendizaje cero (zero-shot), donde el sistema generaliza a conceptos sin ver ejemplos directos, y el preentrenamiento (pretraining), fase donde un modelo aprende patrones generales antes de especializarse con ajuste fino (fine-tuning). También es frecuente el ajuste de instrucciones (instruction tuning) para que los modelos sigan indicaciones en lenguaje natural, y la reutilización de capacidades mediante aprendizaje por transferencia.

Redes neuronales, deep learning y arquitecturas

Las redes neuronales artificiales imitan (a su manera) el procesamiento del cerebro a través de capas de neuronas conectadas. El deep learning usa redes profundas para extraer representaciones jerárquicas, con aplicaciones punteras en visión, habla y lenguaje.

Algunas arquitecturas y técnicas relevantes: RNN (redes recurrentes) para secuencias; GAN (redes generativas antagónicas) con un generador y un discriminador que compiten; mapas autoorganizados (SOM) para reducir dimensionalidad preservando topología; y transformadores (Transformers), base de los grandes modelos de lenguaje (LLM), gracias a la autoatención y el procesamiento en paralelo de secuencias.

La optimización se guía por funciones de pérdida (por ejemplo, entropía cruzada en clasificación) y algoritmos basados en gradiente. Entrenar bien exige ajustar hiperparámetros (tasa de aprendizaje, tamaño de capas), usar regularización para evitar sobreajuste, y aplicar validación cruzada para evaluar la capacidad de generalización.

Métricas y diagnósticos habituales: precisión (accuracy), exhaustividad (recall), curva ROC y AUC, además de verificar subaprendizaje (modelo demasiado simple) o sobreajuste (modelo que memoriza). En tareas críticas conviene estimar la incertidumbre de las predicciones para tomar mejores decisiones.

Datos, conjuntos de datos y preparación

Todo modelo se alimenta de datos. Un dataset es un conjunto organizado de ejemplos para entrenar, validar y probar. A veces trabajamos con macrodatos (Big Data), provenientes de múltiples fuentes (sensores, transacciones, redes sociales), lo que exige herramientas y arquitecturas escalables.

La calidad del dataset es crucial. La anotación de datos agrega etiquetas o descripciones para que los algoritmos aprendan a reconocer objetos, acciones o conceptos. La ingeniería de características transforma y crea variables que mejoran la capacidad predictiva; en texto, la tokenización y la vectorización convierten palabras en representaciones numéricas.

  AI-RAN: La tecnología que revoluciona las redes móviles

Es habitual orquestar el ciclo de vida con un pipeline que cubre ingestión, limpieza, etiquetado, particionado (entrenamiento/validación/prueba), entrenamiento, evaluación y despliegue. Frameworks como TensorFlow o ecosistemas de código abierto (por ejemplo, Hugging Face) facilitan el desarrollo y la distribución de modelos.

Procesamiento del lenguaje natural y generación

El procesamiento del lenguaje natural (PLN/NLP) permite a las máquinas entender y generar lenguaje humano. Tareas típicas: análisis semántico, análisis de sentimientos, traducción automática, extracción de información, reconocimiento y síntesis de voz.

La generación de lenguaje natural (NLG) produce texto o discurso comprensible a partir de datos. Los grandes modelos de lenguaje (LLM) como GPT-3 y GPT-4, preentrenados con enormes corpus, destacan en redacción, resumen, traducción o diálogo. ChatGPT popularizó la interfaz conversacional; otros desarrollos relevantes incluyen Gemini (Google, evolución de Bard) y Claude (Anthropic).

En visión y creatividad, DALL·E genera imágenes desde texto, y las GAN crean contenido sintético realista, como explica el curador de realidades sintéticas. Con RAG (Retrieval-Augmented Generation) se combinan LLM con bases de conocimiento para respuestas mejor fundamentadas. OpenAI es uno de los actores más visibles, mientras comunidades como Hugging Face impulsan modelos y herramientas abiertos para experimentación y despliegue.

Visión por computador, voz y otros sentidos

La visión por computador enseña a los sistemas a interpretar imágenes y vídeo: reconocimiento de imágenes, detección de objetos, segmentación semántica, técnicas para quitar el fondo de tus fotos, y aplicaciones industriales de inspección o conducción autónoma. El OCR (reconocimiento óptico de caracteres) transforma texto impreso o manuscrito en texto digital editable.

En audio, el reconocimiento de voz convierte habla en texto (asistentes, transcripción), mientras que el texto a voz sintetiza locuciones naturales para accesibilidad o asistentes. Del lado inverso, la voz a texto acelera la captura de información en tiempo real.

Más allá de los sentidos, la robótica integra IA para percibir y actuar, desde robots industriales hasta aplicaciones domésticas y de asistencia. Con Internet de las Cosas (IoT), millones de dispositivos conectados recogen datos y habilitan mantenimiento predictivo y automatización inteligente. La realidad virtual (VR) ofrece entornos inmersivos con IA para formación, simulación o entretenimiento.

Sistemas, agentes y automatización

Los chatbots y la IA conversacional permiten diálogos naturales por texto o voz para resolver dudas, recomendar o ejecutar acciones. Un buen chatbot combina comprensión del lenguaje, gestión de contexto y acceso a sistemas o bases de datos.

La automatización de procesos robóticos (RPA) emplea robots de software que interactúan con aplicaciones para tareas repetitivas (rellenar formularios, mover datos), liberando tiempo y reduciendo errores. Los sistemas basados en reglas siguen lógicas explícitas, mientras que los sistemas basados en conocimiento (KBS) almacenan reglas y hechos para ofrecer orientación experta.

También aparecen conceptos como el «adaptador» en modelos: módulos ligeros que se acoplan a un modelo preentrenado para especializarlo sin reentrenar todo, ahorrando tiempo y recursos. Y en planificación, los algoritmos de búsqueda recorren espacios de soluciones para encontrar respuestas óptimas.

Métricas, evaluación y buenas prácticas

Entrenar un modelo no es suficiente: hay que evaluar. Para clasificación, además de precisión y recall, conviene mirar F1, AUC-ROC y matrices de confusión para entender errores típicos (falsos positivos/negativos). En regresión, se emplean MAE/MSE/RMSE.

La validación cruzada ayuda a estimar el rendimiento real. La regularización (L1/L2, dropout) evita el sobreajuste. Un buen ajuste de hiperparámetros mejora mucho sin cambiar la arquitectura. Vigila siempre la deriva de datos en producción y elabora pipelines reproducibles.

En tareas complejas, la ingeniería de instrucciones (prompting) resulta clave: cómo pedimos algo a un LLM cambia el resultado. Volver a pedir con ajustes (reprompting) puede mejorar claridad y factualidad. Para dominios sensibles, RAG y fuentes verificadas reducen riesgos.

Ética, sesgo, seguridad y explicabilidad

La IA ética aborda justicia, transparencia, responsabilidad y respeto a derechos. El sesgo algorítmico aparece cuando los datos o procesos producen resultados injustos para ciertos grupos. Mitigar sesgo exige diversidad de datos, auditorías y métricas de equidad.

La explicabilidad (XAI) busca entender el porqué de una decisión. Modelos «caja negra» complican la interpretación; técnicas poshoc y modelos intrínsecamente interpretables ayudan a ganar confianza, especialmente en ámbitos regulados (salud, finanzas, movilidad).

  Requisitos de Windows 11 para usar Inteligencia Artificial en local

Otro riesgo son las alucinaciones: modelos que generan información plausible pero errónea. Reducirlo implica mejor entrenamiento, prompts más precisos, validación con fuentes externas y límites claros de uso.

Herramientas, lenguajes y ecosistema

Además de frameworks, el ecosistema incluye lenguajes y conceptos históricos como IPL (Information Processing Language), pionero en programación de alto nivel para manipulación de datos. En la actualidad destacan bibliotecas y plataformas que aceleran prototipado y despliegue de soluciones.

OpenAI, Google (Gemini, antes Bard), Anthropic (Claude) y comunidades abiertas impulsan avances en modelos generativos, imagen, texto y código. Surgen también prácticas de evaluación responsable y guías de gobernanza para implantar IA en empresas con garantías.

Aplicaciones educativas y alfabetización en IA

La IA en educación (AIED) adopta roles como tutor inteligente, herramienta de aprendizaje y apoyo a políticas. La alfabetización en IA promueve comprender, usar y evaluar esta tecnología de forma ética en diferentes contextos.

En docencia se habla de enseñar con IA (integrarla en procesos), enseñar para la IA (competencias para utilizarla con responsabilidad) y enseñar sobre IA (construir herramientas, programar, robótica). El aprendizaje adaptativo ajusta materiales y ritmo a cada estudiante, mientras los Intelligent Tutoring Systems ofrecen seguimiento y retroalimentación personalizada.

Glosario rápido: términos que conviene tener a mano

  • Algoritmo: conjunto de reglas e instrucciones que guían cómo aprender o decidir. Modelo predictivo: usa patrones históricos para anticipar resultados. Optimización: búsqueda del mejor conjunto de parámetros bajo restricciones.
  • Conjunto de datos (dataset): colección organizada de ejemplos para entrenar y evaluar. Datos escasos: matrices con mayoría de valores cero o ausentes. Pipeline: cadena de pasos desde datos brutos a modelo en producción.
  • Función de pérdida: cuantifica el error a minimizar. Hiperparámetros: ajustes de aprendizaje fijados antes de entrenar. Validación cruzada: técnica para estimar rendimiento sin sesgo por particiones concretas.
  • Precisión y recall: métricas de clasificación. Curva ROC/AUC: capacidad de discriminación entre clases. Sobreajuste/subaprendizaje: exceso o defecto de ajuste a los datos de entrenamiento.
  • Token: unidad mínima de texto para modelos de lenguaje. Prompt: instrucción en lenguaje natural para guiar la salida de un LLM. RAG: combinación de recuperación + generación para respuestas con fuentes.
  • OCR: convierte texto impreso/manuscrito en digital. SOM: mapea datos de alta dimensión a un espacio menor. Algoritmos genéticos: optimización inspirada en evolución y selección natural.
  • IoT: red de dispositivos conectados que capturan y comparten datos. VR: entornos virtuales inmersivos, a menudo potenciados con IA. KBS: sistemas basados en conocimiento para asesoramiento experto.
  • IA generativa: crea contenido nuevo (texto, imagen, audio, código). LLM: grandes modelos de lenguaje (GPT-3, GPT-4, Gemini). Chatbot/IA conversacional: interfaces de diálogo para atención y soporte.
  • OpenAI, Gemini/Bard, Claude, DALL·E: referentes en IA conversacional e IA generativa. Hugging Face: ecosistema abierto para modelos y despliegue. TensorFlow: framework de aprendizaje profundo de código abierto.
  • IA ética y XAI: marcos para decisiones justas y explicables. Sesgo: distorsión que perjudica a grupos. Alucinación: respuesta plausible pero falsa; requiere controles adicionales.
  • Aprendizaje Automático (ML por sus siglas en inglés): Una rama de la IA que se enfoca en el desarrollo de algoritmos que permiten a las computadoras aprender de los datos sin ser programadas explícitamente para cada tarea.
  • Aprendizaje Profundo (Deep Learning): Un subcampo del ML que utiliza redes neuronales artificiales con múltiples capas para modelar abstracciones de alto nivel en los datos.
  • Unidad de Procesamiento Gráfico (GPU): Un tipo de procesador diseñado originalmente para renderizar gráficos, pero que se ha convertido en el hardware estándar para entrenar y ejecutar modelos de IA.
  • Unidad de Procesamiento Tensorial (TPU): Un circuito integrado específico (ASIC) desarrollado por Google y optimizado para la carga de trabajo de ML.
  • Unidad de Procesamiento Neuronal (NPU): Un tipo de microprocesador o coprocesador diseñado específicamente para la aceleración de cargas de trabajo de IA.
  • Operaciones por Segundo (TOPS): Una métrica de rendimiento que mide la velocidad de un procesador, específicamente el número de billones de operaciones que puede ejecutar por segundo.
  • Modelo de Lenguaje de Gran Escala (LLM por sus siglas en inglés): Un tipo de modelo de IA que ha sido entrenado en un vasto corpus de texto y datos. Los LLMs pueden comprender, generar y manipular lenguaje humano para realizar una amplia variedad de tareas de procesamiento del lenguaje natural.
  • Inferencia: El proceso de utilizar un modelo de IA ya entrenado para hacer una predicción o generar una respuesta con nuevos datos.
  • Parámetros: Los valores internos de un modelo de IA que se ajustan durante el entrenamiento.
  • Token: Una unidad de texto que un LLM puede procesar.
  • Prompt: La entrada de texto que se le da a un modelo de IA, especialmente a un LLM, para guiar su respuesta.
  • Alucinación: Un fenómeno en el que un modelo de IA, especialmente un LLM, genera información falsa o incorrecta que presenta como si fuera un hecho.
  • Conjunto de Datos (Dataset): Una colección de datos estructurados que se utiliza para entrenar, validar y probar un modelo de ML.
  • Entrenamiento: El proceso por el cual un modelo de IA aprende a realizar una tarea específica a partir de los datos.
  • Ingeniería de Prompts: La disciplina de diseñar y optimizar prompts para obtener los mejores resultados de los LLMs.
  • Aprendizaje Supervisado: Un tipo de ML donde el modelo aprende de un conjunto de datos etiquetado, es decir, cada ejemplo tiene una etiqueta de respuesta correcta.
  • Aprendizaje No Supervisado: Un tipo de ML donde el modelo busca patrones y estructuras en un conjunto de datos sin etiquetas.
  • Aprendizaje por Refuerzo: Un tipo de ML donde un agente de IA aprende a tomar decisiones en un entorno para maximizar una recompensa acumulativa.
  • Parámetros: El número de valores que un modelo de IA aprende y ajusta durante el entrenamiento, midiendo su «tamaño» y complejidad.
  • Contexto del modelo o Longitud de Contexto: La cantidad máxima de tokens que un modelo puede considerar en una sola vez para generar una respuesta.
  • Flops (Operaciones de Coma Flotante por Segundo): Una medida del rendimiento de la computadora, especialmente útil para calcular la potencia de procesamiento para entrenar modelos de IA.
  • Notación Exponencial (E Notation): Una forma de expresar números muy grandes o muy pequeños, común en las especificaciones de hardware de IA.
  • Arquitectura del modelo: La estructura general de un modelo de IA, incluyendo la forma en que sus capas están organizadas y se conectan.
  • Transformadores (Transformers): Una arquitectura de red neuronal que utiliza un mecanismo de atención, fundamental en el procesamiento de lenguaje natural y la base de la mayoría de los LLMs.
  • Mecanismo de atención (Attention Mechanism): Una técnica dentro de la arquitectura de transformadores que permite al modelo enfocarse en las partes más relevantes del texto de entrada al generar una respuesta.
  • Fine-tuning: El proceso de adaptar un modelo grande, ya pre-entrenado, para una tarea específica o un conjunto de datos más pequeño.
  • In-context Learning: La capacidad de un LLM para aprender de ejemplos proporcionados directamente en el prompt, sin necesidad de un ajuste formal.
  • Cadena de pensamiento (Chain-of-Thought): Una técnica de prompting que guía al LLM para que «piense» paso a paso antes de dar una respuesta final, mejorando la precisión.
  Diferencias entre redes neuronales recurrentes (RNN) y redes neuronales de grafos (GNN)

Con este mapa terminológico ya puedes moverte con más soltura por productos, papers y conversaciones del sector. La clave está en combinar fundamentos (datos de calidad, buenas prácticas de evaluación) con un uso responsable que ponga en el centro la utilidad, la transparencia y el impacto en las personas.

qué es Google NotebookLM-1
Artículo relacionado:
Google NotebookLM: Todo sobre el Asistente de Investigación Inteligente de Google