Los investigadores de Alibaba Group han desarrollado una innovadora técnica que podría transformar radicalmente la forma en que se entrenan los sistemas de inteligencia artificial para buscar información. La nueva tecnología, denominada "ZeroSearch", permite a los modelos de lenguaje grandes (LLMs) desarrollar capacidades avanzadas de búsqueda sin necesidad de interactuar con motores de búsqueda reales durante el proceso de entrenamiento, lo que reduce los costes hasta en un 88%.
¿Qué es ZeroSearch y cómo funciona?
ZeroSearch aborda uno de los grandes desafíos a los que se enfrentan las empresas que desarrollan asistentes de IA capaces de buscar información de forma autónoma: el elevado coste y la impredecible calidad de los documentos obtenidos a través de motores de búsqueda comerciales durante el entrenamiento.
"El entrenamiento por refuerzo requiere frecuentes despliegues, que potencialmente implican cientos de miles de solicitudes de búsqueda, lo que conlleva gastos sustanciales en API y restringe severamente la escalabilidad", escriben los investigadores en su artículo publicado en arXiv esta semana.
El enfoque innovador de Alibaba comienza con un proceso de ajuste supervisado ligero que transforma un LLM en un módulo de recuperación capaz de generar documentos tanto relevantes como irrelevantes en respuesta a una consulta. Durante el entrenamiento por refuerzo, el sistema emplea lo que los investigadores denominan una "estrategia de despliegue basada en currículum" que degrada gradualmente la calidad de los documentos generados.
"Nuestra idea clave es que los LLMs han adquirido un extenso conocimiento del mundo durante el preentrenamiento a gran escala y son capaces de generar documentos relevantes dada una consulta de búsqueda", explican los investigadores. "La principal diferencia entre un motor de búsqueda real y un LLM de simulación radica en el estilo textual del contenido devuelto".
Resultados impresionantes: superando a Google a menor coste
En experimentos exhaustivos con siete conjuntos de datos de preguntas y respuestas, ZeroSearch no solo igualó sino que a menudo superó el rendimiento de modelos entrenados con motores de búsqueda reales. Sorprendentemente, un módulo de recuperación de 7B parámetros logró un rendimiento comparable a Google Search, mientras que un módulo de 14B parámetros incluso lo superó.
Los ahorros de costes son sustanciales. Según el análisis de los investigadores, entrenar con aproximadamente 64.000 consultas de búsqueda utilizando Google Search a través de SerpAPI costaría unos 586,70 dólares (aproximadamente 539 euros), mientras que usar un LLM de simulación de 14B parámetros en cuatro GPUs A100 cuesta solo 70,80 dólares (aproximadamente 65 euros) — una reducción del 88%.
"Esto demuestra la viabilidad de utilizar un LLM bien entrenado como sustituto de los motores de búsqueda reales en configuraciones de aprendizaje por refuerzo", señala el documento.
Implicaciones para el futuro del desarrollo de IA
Este avance representa un cambio fundamental en cómo pueden entrenarse los sistemas de IA. ZeroSearch demuestra que la IA puede mejorar sin depender de herramientas externas como los motores de búsqueda.
El impacto podría ser sustancial para la industria de la IA. Hasta ahora, entrenar sistemas avanzados de IA a menudo requería costosas llamadas API a servicios controlados por grandes empresas tecnológicas. ZeroSearch cambia esta ecuación al permitir que la IA simule búsquedas en lugar de utilizar motores de búsqueda reales.
Para las empresas de IA más pequeñas y las startups con presupuestos limitados, este enfoque podría nivelar el campo de juego. Los altos costes de las llamadas API han sido una barrera importante para el desarrollo de asistentes de IA sofisticados. Al reducir estos costes en casi un 90%, ZeroSearch hace que el entrenamiento avanzado de IA sea más accesible.
Más allá del ahorro de costes, esta técnica da a los desarrolladores más control sobre el proceso de entrenamiento. Cuando se utilizan motores de búsqueda reales, la calidad de los documentos devueltos es impredecible. Con la búsqueda simulada, los desarrolladores pueden controlar con precisión qué información ve la IA durante el entrenamiento.
Disponibilidad y acceso a la tecnología
La técnica funciona con múltiples familias de modelos, incluidos Qwen-2.5 y LLaMA-3.2, y con variantes tanto básicas como con instrucciones ajustadas. Los investigadores han puesto a disposición de la comunidad su código, conjuntos de datos y modelos pre-entrenados en GitHub y Hugging Face, permitiendo que otros investigadores y empresas implementen el enfoque.
A medida que los modelos de lenguaje grandes continúan evolucionando, técnicas como ZeroSearch sugieren un futuro donde los sistemas de IA pueden desarrollar capacidades cada vez más sofisticadas a través de la auto-simulación en lugar de depender de servicios externos, lo que potencialmente cambia la economía del desarrollo de IA y reduce las dependencias de las grandes plataformas tecnológicas.
Una transformación silenciosa pero profunda
La ironía es clara: al enseñar a la IA a buscar sin motores de búsqueda, Alibaba puede haber creado una tecnología que hace que los motores de búsqueda tradicionales sean menos necesarios para el desarrollo de la IA. A medida que estos sistemas se vuelven más autosuficientes, el panorama tecnológico podría verse muy diferente en solo unos pocos años.
Este avance de Alibaba ilustra cómo la industria de la IA está encontrando formas cada vez más ingeniosas de superar las limitaciones actuales. En lugar de depender de recursos externos costosos, las empresas están descubriendo que sus propios modelos de IA pueden simular muchas de las funcionalidades que antes requerían servicios de terceros.
Para el ecosistema de desarrollo de IA español y europeo, tecnologías como ZeroSearch podrían representar una oportunidad para reducir la dependencia de grandes plataformas tecnológicas extranjeras, permitiendo un desarrollo más autónomo y económicamente viable de soluciones de IA avanzadas.