Meta ha vuelto a revolucionar el panorama de la inteligencia artificial con el anuncio de su nueva generación de modelos, Llama 4, compuesta por las versiones Scout, Maverick y Behemoth. Estos modelos no solo consolidan la estrategia de la compañía para liderar el desarrollo de IA abiertas, sino que también marcan un nuevo estándar en cuanto a eficiencia, capacidades multimodales y flexibilidad en aplicaciones reales.
Con esta nueva familia, Meta pone sobre la mesa la posibilidad de crear asistentes virtuales y sistemas inteligentes mucho más potentes, económicos y versátiles, capaces de trabajar de forma fluida con texto, imágenes y grandes volúmenes de datos gracias a innovaciones técnicas como la arquitectura Mixture-of-Experts y una ventana de contexto extremadamente amplia.
¿Qué es Llama 4 y por qué está generando tanto revuelo?
Llama 4 es la cuarta iteración de los modelos de lenguaje de Meta, diseñados desde cero para ofrecer capacidades multimodales nativas, una eficiencia computacional superior y un acceso más abierto a desarrolladores y empresas. Esto significa que ahora los modelos no solo comprenden y generan texto, sino que también pueden interpretar imágenes e integrarlas en sus respuestas sin necesidad de arquitecturas independientes.
Una de sus señas de identidad es el uso de la arquitectura Mixture-of-Experts (MoE), que permite distribuir el procesamiento en múltiples expertos especializados, activando solo los necesarios para cada tarea. De esta forma, se reduce el coste computacional y se mejora el rendimiento sin tener que recurrir a modelos densos gigantescos. Para más información sobre los nuevos desarrollos de Meta, puedes consultar cómo Meta ha lanzado Llama 4.
Otro gran hito en estos modelos es la ventana de contexto de hasta 10 millones de tokens, algo inédito en la industria, que les permite manejar entradas masivas como repositorios enteros de código o múltiples documentos extensos en una sola petición.
Llama 4 Scout: el modelo compacto, veloz y multimodal
Scout es el modelo más ligero de la familia, pero no por ello menos potente. Con 17.000 millones de parámetros activos y 16 expertos, ha sido diseñado para funcionar en equipos más modestos, como una sola GPU Nvidia H100, lo que lo hace ideal para aplicaciones empresariales o desarrolladores que no cuentan con grandes infraestructuras. Esto resalta la flexibilidad que los modelos Llama 4 ofrecen para distintas plataformas, incluso integrándose en WhatsApp y otras aplicaciones.
Gracias a su arquitectura optimizada y al uso de cuantización INT4, Scout consigue una velocidad de inferencia muy alta sin sacrificar calidad. Además, su ventana de contexto de 10 millones de tokens lo convierte en el modelo ideal para procesar y resumir grandes cantidades de texto, como informes, bases de datos documentales o actividad compleja del usuario.
En cuanto a benchmarking, ha logrado superar a rivales como Gemini 2.0 Flash-Lite, Mistral 3.1 y Gemma 3 en tareas que combinan razonamiento, velocidad y uso eficiente de recursos, a pesar de poseer menos parámetros activos que estos modelos.
Scout también es capaz de alinear imágenes con texto gracias a MetaCLIP, lo que le permite interpretar visualmente los prompts y ofrecer respuestas conectadas con contenidos gráficos, como se ha demostrado en las gafas inteligentes Ray-Ban con integración de Meta AI. Para obtener más detalles sobre estas integraciones, revisa nuestra cobertura sobre cómo usar Meta AI en Instagram.
Llama 4 Maverick: el experto versátil para tareas complejas
Llama 4 Maverick es el punto medio dentro de la familia y uno de los más sorprendentes por su rendimiento. También cuenta con 17.000 millones de parámetros activos, pero a diferencia de Scout utiliza hasta 128 expertos y un total de 400.000 millones de parámetros. Esta estructura le permite especializarse en programación, razonamiento lógico y tareas complejas sin penalizar tiempos de respuesta.
Meta ha puesto especial énfasis en hacerlo competitivo en benchmarks como código, matemáticas, escritura creativa y tareas difíciles. En las evaluaciones de ChatBot Arena, Maverick ha quedado en los primeros puestos, empatando con modelos de gama superior como Gemini 2.5 Pro experimental, y superando a GPT-4o y Google Gemini 2.0 Flash en varias categorías clave. La competencia entre estos modelos resalta la importancia de innovaciones tecnológicas como las que se discuten en el artículo sobre reconocimiento facial de Meta en Europa.
Otra de sus ventajas destacadas es que, a pesar de rivalizar en calidad con modelos como DeepSeek 3.1, su coste computacional es mucho menor. Esto lo convierte en una opción muy atractiva para empresas que buscan IA de alto rendimiento sin despilfarrar recursos.
Su entrenamiento ha sido afinado mediante supervisión ligera, aprendizaje por refuerzo online y optimización directa de preferencias, logrando un equilibrio excelente entre velocidad, precisión y adaptación a la intención del usuario.
Llama 4 Behemoth: el titán de la inteligencia artificial
Behemoth es el gigante de la nueva hornada. Todavía no está disponible públicamente, ya que se encuentra en fase de entrenamiento y pruebas, pero sus especificaciones ya lo colocan como uno de los modelos más potentes del planeta. Su llegada marca un hito en la evolución de IA, que puedes seguir en nuestras noticias sobre avances tecnológicos y demostraciones por parte de Meta.
Hablamos de 288.000 millones de parámetros activos con 16 expertos y cerca de 2 billones de parámetros totales. Una auténtica bestia que Meta ha utilizado como modelo maestro o «docente» para entrenar de forma más eficiente a Scout y Maverick gracias a procesos de codistilación.
En pruebas internas, Behemoth ha logrado superar a GPT-4.5, Claude Sonnet 3.7 y Gemini 2.0 Pro en benchmarks centrados en matemáticas, multilingüismo e interpretación visual como GPQA Diamond o MATH-500.
Debido a su tamaño, Meta ha tenido que rediseñar parte de su infraestructura, empleando técnicas como redes de refuerzo asíncronas y un nuevo método llamado GOAT para detectar vulnerabilidades durante las pruebas de seguridad. También se ha convertido en un ejemplo de cómo crear modelos especializados a partir de uno más grande, siguiendo la estrategia de “destilación” usada en otras IAs como DeepSeek.
Compromiso con la apertura, la seguridad y el uso responsable
Uno de los pilares de Llama 4 es el enfoque de Meta hacia una IA más abierta pero también responsable. Aunque algunos critican que no es completamente código abierto debido a ciertas licencias restrictivas, sí es cierto que proporciona pesos libres y documentación suficiente para que desarrolladores e investigadores puedan trabajar con estos modelos. El debate sobre la apertura en IA tiene resonancia en otros proyectos, como el de Meta y la verificación de datos profesionales.
Además, Meta ha dotado a Llama 4 de herramientas para evitar usos indebidos o problemáticos, como Prompt Guard y Llama Guard, sistemas que filtran contenido indebido o desinformación. También se ha reducido notablemente el sesgo ideológico de los modelos, según las métricas internas, lo que permite respuestas más neutrales y equilibradas en temas sociales controvertidos.
Por otro lado, el aspecto multimodal se ha gestionado con integración desde fases tempranas (fusión temprana), permitiendo que texto e imagen compartan arquitectura sin necesidad de módulos aparte. Esto mejora la coherencia y facilita el entrenamiento conjunto con datasets mixtos.
Acceso, disponibilidad y lo que está por venir
Tanto Scout como Maverick ya están disponibles para descarga desde llama.com y Hugging Face. También se pueden usar de forma nativa en plataformas como WhatsApp, Messenger, Instagram Direct y el sitio de Meta AI. Para más información sobre su integración en aplicaciones, puedes revisar el artículo sobre Meta AI y su relación con WhatsApp.
Además, han sido integrados en entornos cloud como Azure, Google Cloud, Cloudflare Workers y Databricks. Esta disponibilidad los convierte en una opción muy flexible tanto para desarrolladores como para empresas.
Meta ha anunciado la celebración del primer evento LlamaCon el 29 de abril, donde se esperan novedades como la versión especializada Llama 4 Reasoning y una app dedicada para sus asistentes de IA, con posibles funciones de agente como reservas o producción de vídeo.
Esta nueva generación de modelos Llama no solo redefine lo que puede hacer la inteligencia artificial abierta. También demuestra que es posible alcanzar una IA potente, escalable y accesible sin renunciar a la seguridad y la eficiencia. Mientras Scout y Maverick ya están marcando un nuevo estándar en rendimiento y versatilidad, Behemoth se perfila como el futuro motor de una inteligencia artificial aún más sofisticada y especializada.
Redactor apasionado del mundo de los bytes y la tecnología en general. Me encanta compartir mis conocimientos a través de la escritura, y eso es lo que haré en este blog, mostrarte todo lo más interesante sobre gadgets, software, hardware, tendencias tecnológicas, y más. Mi objetivo es ayudarte a navegar por el mundo digital de forma sencilla y entretenida.