Meta lanza Llama 4, su nueva generación de modelos de IA, con mejor rendimiento y menos sesgos

Droids

Updated on:

Meta presenta Llama 4, su nueva generación de modelos de IA, con mejoras en rendimiento y sesgo

Meta ha anunciado el lanzamiento de Llama 4, la última incorporación a su familia de modelos de inteligencia artificial Llama. Este lanzamiento, que tuvo lugar un sábado, presenta una nueva serie de modelos diseñados para mejorar el rendimiento y la eficiencia en diversas tareas.

¿Qué es Llama 4?

Llama 4 representa la nueva generación de modelos de IA de Meta, entrenados con grandes cantidades de texto, imágenes y video sin etiquetar. Según TechCrunch, esta amplia formación tiene como objetivo proporcionar a los modelos una «amplia comprensión visual».

Los modelos de la familia Llama 4: Scout, Maverick y Behemoth

La familia Llama 4 incluye cuatro nuevos modelos:

  • Llama 4 Scout: Diseñado para tareas como el resumen de documentos y el razonamiento sobre grandes bases de código, Scout destaca por su gran ventana de contexto de 10 millones de tokens. Esto le permite procesar y trabajar con documentos extremadamente extensos.
  • Llama 4 Maverick: Este modelo está optimizado para casos de uso generales como asistente y chat, incluyendo la escritura creativa. Meta afirma que Maverick supera a modelos como GPT-4o de OpenAI y Gemini 2.0 de Google en ciertas pruebas de codificación, razonamiento, multilingüismo, contexto largo e imágenes.
  • Llama 4 Behemoth: Aún en entrenamiento, Behemoth promete un rendimiento aún mayor, superando a GPT-4.5, Claude 3.7 Sonnet y Gemini 2.0 Pro en evaluaciones de habilidades STEM como la resolución de problemas matemáticos.

Scout y Maverick ya están disponibles en Llama.com y a través de socios de Meta, incluyendo la plataforma de desarrollo de IA Hugging Face. Además, Meta ha actualizado su asistente impulsado por IA, Meta AI, para utilizar Llama 4 en 40 países. Sin embargo, las características multimodales están limitadas a los Estados Unidos en inglés por el momento.

La arquitectura MoE y el rendimiento de los modelos

Una de las principales novedades de Llama 4 es su arquitectura Mixture of Experts (MoE). Meta explica que esta arquitectura divide las tareas de procesamiento de datos en subtareas y las delega a modelos «expertos» más pequeños y especializados. Esto permite una mayor eficiencia computacional tanto en el entrenamiento como en la respuesta a las consultas.

Por ejemplo, Maverick tiene 400 mil millones de parámetros totales, pero solo 17 mil millones de parámetros activos a través de 128 «expertos». Scout, por su parte, tiene 17 mil millones de parámetros activos, 16 expertos y 109 mil millones de parámetros totales.

Según señala TechCrunch, los modelos Llama 4 son los primeros en usar esta arquitectura, haciéndolos más eficientes para el entrenamiento y las consultas.

Comparativa con otros modelos de IA

Meta ha realizado pruebas internas que sugieren que Maverick supera a modelos como GPT-4o de OpenAI y Gemini 2.0 de Google en ciertas áreas. Sin embargo, no alcanza el rendimiento de modelos más recientes y potentes como Gemini 2.5 Pro de Google, Claude 3.7 Sonnet de Anthropic y GPT-4.5 de OpenAI.

En particular, TechCrunch señala que ninguno de los modelos Llama 4 es un modelo de «razonamiento» adecuado, como los modelos o1 y o3-mini de OpenAI. Los modelos de razonamiento verifican los hechos de sus respuestas y responden a las preguntas de manera más confiable, pero tardan más en entregar las respuestas.

Restricciones de licencia y disponibilidad

Algunos desarrolladores podrían tener problemas con la licencia de Llama 4. Los usuarios y las empresas «domiciliados» o con un «lugar principal de negocios» en la UE tienen prohibido utilizar o distribuir los modelos, probablemente como resultado de los requisitos de gobernanza impuestos por las leyes de privacidad de datos y IA de la región.

Meta ha criticado estas leyes en el pasado por ser demasiado onerosas. Además, al igual que con las versiones anteriores de Llama, las empresas con más de 700 millones de usuarios activos mensuales deben solicitar una licencia especial a Meta, que Meta puede conceder o denegar a su entera discreción.

Ajustes para evitar sesgos políticos

Meta afirma haber ajustado todos sus modelos Llama 4 para que se nieguen a responder preguntas «conflictivas» con menos frecuencia. Según TechCrunch, Llama 4 responde a temas políticos y sociales «debatidos» que la anterior generación de modelos Llama no abordaba. Además, la empresa afirma que Llama 4 está «dramáticamente más equilibrado» en cuanto a las preguntas que directamente no va a responder.

Un portavoz de Meta ha declarado que se puede contar con Llama 4 «para proporcionar respuestas útiles y objetivas sin juzgar». También afirmaron que están «continuando haciendo a Llama más receptivo para que responda más preguntas, pueda responder a una variedad de diferentes puntos de vista […] y no favorezca algunas opiniones sobre otras.»

Estos ajustes se producen en un momento en que algunos aliados de la Casa Blanca acusan a los chatbots de IA de ser demasiado «woke» (progresistas).

De hecho, muchos de los confidentes cercanos del presidente Donald Trump, incluyendo el multimillonario Elon Musk y el «zar» de las criptomonedas y la IA David Sacks, han alegado que los chatbots de IA populares censuran las opiniones conservadoras. Sacks ha señalado históricamente a ChatGPT de OpenAI como «programado para ser woke» y falso sobre temas políticos.

El contexto de la competencia en el mercado de IA

El lanzamiento de Llama 4 se produce en un contexto de creciente competencia en el mercado de la IA. Empresas como OpenAI, Google y Anthropic están constantemente desarrollando nuevos modelos con capacidades mejoradas. Además, el auge de DeepSeek, un laboratorio de IA chino, ha ejercido presión sobre Meta para acelerar el desarrollo de Llama 4.

Se ha rumoreado que Meta organizó «salas de guerra» para descifrar cómo DeepSeek redujo el coste de ejecutar y desplegar modelos como R1 y V3.

Requisitos de hardware para ejecutar los modelos

Los requisitos de hardware para ejecutar los modelos Llama 4 varían según el modelo. Scout puede ejecutarse en una sola GPU Nvidia H100, mientras que Maverick requiere un sistema Nvidia H100 DGX o equivalente. Behemoth, por su parte, necesitará un hardware aún más potente, con 288 mil millones de parámetros activos y casi dos billones de parámetros totales.

Deja un comentario