Un nuevo estudio realizado por investigadores de Meta y la Universidad Hebrea de Jerusalén desafía las convenciones en el desarrollo de la inteligencia artificial (IA), revelando que procesos de razonamiento más breves no solo mejoran significativamente la precisión de los modelos de lenguaje grandes, sino que también reducen drásticamente los costes computacionales.
Investigadores del prestigioso equipo FAIR de Meta y de La Universidad Hebrea de Jerusalén han descubierto un hecho sorprendente: obligar a los modelos de lenguaje grandes (LLM, por sus siglas en inglés) a "pensar" menos, es decir, a utilizar cadenas de razonamiento más cortas, mejora su rendimiento en tareas complejas. El estudio, publicado recientemente, demuestra que esta aproximación puede llevar a resultados más precisos y a una notable reducción en los costes computacionales, un factor crítico en la actual carrera por la IA.
Un Descubrimiento Contraintuitivo en el Razonamiento de la IA
El artículo científico, titulado "Don’t Overthink it. Preferring Shorter Thinking Chains for Improved LLM Reasoning" (No lo pienses demasiado. Prefiriendo cadenas de pensamiento más cortas para un razonamiento mejorado de los LLM), cuestiona una suposición fundamental en el campo. "En este trabajo, desafiamos la suposición de que las cadenas de pensamiento largas resultan en mejores capacidades de razonamiento", escriben los autores en su publicación.
Esta investigación contradice directamente la tendencia predominante en el desarrollo de la IA. Durante años, muchas empresas han invertido masivamente en aumentar la capacidad de cómputo para permitir que los modelos realicen razonamientos extensos a través de lo que se conoce como "cadenas de pensamiento" (thinking chains). Estas cadenas son, en esencia, trayectorias detalladas paso a paso que los sistemas de IA utilizan para abordar y resolver problemas complejos. La idea convencional era que, a mayor profundidad de "reflexión", mejores serían los resultados.
Mayor Precisión con Menos "Reflexión" Artificial
Los hallazgos del estudio son contundentes. Los investigadores descubrieron que, dentro de la misma tarea de razonamiento, "las cadenas de razonamiento más cortas tienen una probabilidad significativamente mayor de producir respuestas correctas — hasta un 34.5% más precisas que la cadena más larga muestreada para la misma pregunta". Este resultado se mantuvo consistente a través de múltiples modelos de IA líderes en el mercado y en diversas pruebas de referencia (benchmarks).
Este incremento en la precisión va acompañado de una mayor eficiencia. Los autores señalan la ineficiencia inherente a los sistemas actuales que dependen de razonamientos extensos: "Aunque demuestran resultados impresionantes, [el razonamiento extenso] incurre en costes computacionales y tiempo de inferencia significativos". Esta observación pone de manifiesto un derroche considerable en la forma en que se despliegan actualmente estos sistemas.
"short-m@k": La Innovadora Propuesta para Optimizar la IA
Basándose en estos descubrimientos, el equipo de investigación desarrolló un novedoso enfoque denominado "short-m@k". Esta técnica consiste en ejecutar múltiples intentos de razonamiento de forma paralela, pero con una particularidad: la computación se detiene una vez que los primeros procesos (los más cortos) han finalizado. La respuesta final se selecciona entonces mediante un sistema de voto por mayoría entre estas cadenas de razonamiento más breves y rápidas.
Las implicaciones para las organizaciones que implementan sistemas de IA de razonamiento a gran escala podrían ser sustanciales. Según los investigadores, su método "short-m@k" podría reducir el uso de recursos computacionales hasta en un 40%, todo ello manteniendo el mismo nivel de rendimiento que los enfoques estándar basados en cadenas largas.
Además, una variante de este método, denominada "Short-3@k", "aunque ligeramente menos eficiente que short-1@k, supera consistentemente al voto por mayoría en todos los presupuestos de cómputo, siendo además sustancialmente más rápida (hasta un 33% de reducción en el tiempo de ejecución real)", según se afirma en el documento. Esto sugiere una optimización aún mayor en términos de velocidad y eficiencia de costes.
El Entrenamiento También Prefiere la Brevedad
Otro hallazgo crucial del estudio, liderado por Michael Hassid, es que entrenar los modelos de IA utilizando ejemplos de razonamiento más cortos también conduce a una mejora en su rendimiento. Esto desafía otra suposición fundamental en el desarrollo de la IA, que a menudo abogaba por la exposición a procesos de pensamiento más elaborados durante la fase de entrenamiento.
"Entrenar con los [ejemplos] más cortos conduce a un mejor rendimiento", escriben los investigadores. Por el contrario, "el ajuste fino (finetuning) en S1-long [cadenas largas muestreadas inicialmente] aumenta el tiempo de razonamiento sin ganancias significativas de rendimiento". Este punto es vital, ya que sugiere que la eficiencia puede incorporarse desde las etapas iniciales de desarrollo del modelo.
Implicaciones para una Industria en Plena Expansión
Estos descubrimientos llegan en un momento crítico para la industria de la IA. Las empresas compiten ferozmente por desplegar modelos cada vez más potentes, lo que conlleva un consumo ingente de recursos computacionales y, por ende, costes operativos muy elevados. La posibilidad de que los gigantes tecnológicos ahorren millones de dólares (cifra que se traduciría en ahorros igualmente significativos en euros) al adoptar un enfoque de "no pensar demasiado" es, sin duda, atractiva.
"Nuestros hallazgos sugieren repensar los métodos actuales de cómputo en tiempo de prueba en los LLM de razonamiento, enfatizando que un 'pensamiento' más largo no se traduce necesariamente en un mejor rendimiento y puede, contraintuitivamente, llevar a resultados degradados", concluyen los investigadores.
Como señala el informe original de VentureBeat sobre este estudio, esta investigación contrasta con otros enfoques prominentes. Estudios influyentes previos, incluyendo el trabajo de OpenAI sobre la inducción de "cadena de pensamiento" (chain-of-thought prompting) y los métodos de "auto-consistencia" (self-consistency), generalmente han abogado por procesos de razonamiento más extensos. El nuevo estudio también se basa en trabajos recientes como el marco "Árbol de Pensamientos" (Tree of Thoughts) de Princeton y Google DeepMind, y la metodología "Auto-Refinamiento" (Self-Refine) de la Universidad Carnegie Mellon, que han explorado diferentes vías para el razonamiento de la IA.
Para los responsables técnicos que evalúan inversiones en IA, esta investigación sugiere que optar por sistemas más grandes y computacionalmente más intensivos no siempre es la mejor estrategia. El estudio apunta hacia potenciales ahorros de costes y mejoras de rendimiento al optimizar la eficiencia en lugar de la potencia bruta de cálculo.
En una industria obsesionada con la escalabilidad y el aumento constante de parámetros y capacidad, resulta que enseñar a la IA a ser más concisa no solo ahorra potencia de cálculo, sino que también puede hacer que las máquinas sean más inteligentes. A veces, incluso la inteligencia artificial se beneficia de la sabiduría ancestral: no hay que darle demasiadas vueltas a las cosas.






