LinkedIn revoluciona la búsqueda de empleo con una IA que entiende lo que realmente buscas

Droids

Updated on:

La red social profesional LinkedIn ha dado un paso de gigante en su misión de conectar a profesionales con oportunidades laborales. La compañía ha lanzado oficialmente para todos sus usuarios una nueva experiencia de búsqueda de empleo impulsada por inteligencia artificial (IA), diseñada para comprender las intenciones de los usuarios más allá de las simples palabras clave. Este sistema, basado en avanzados Modelos de Lenguaje Grandes (LLM), permite ahora realizar consultas en lenguaje natural, haciendo el proceso de encontrar el trabajo ideal más intuitivo, preciso e inclusivo.

La nueva funcionalidad representa un cambio fundamental en la forma en que los millones de usuarios de la plataforma interactúan con el motor de búsqueda. En lugar de limitarse a introducir términos como «director de marketing» o «analista de datos», ahora es posible escribir frases completas y descriptivas como «busco un puesto de director de marketing remoto en una startup tecnológica con buen equilibrio vida-trabajo». La IA se encarga de interpretar el matiz y el contexto de la petición para ofrecer resultados mucho más relevantes.

«Esta nueva experiencia de búsqueda permite a los miembros describir sus objetivos con sus propias palabras y obtener resultados que realmente reflejan lo que están buscando», explicó Erran Berger, vicepresidente de desarrollo de producto de LinkedIn, en declaraciones a VentureBeat. «Este es el primer paso en un viaje más amplio para hacer que la búsqueda de empleo sea más intuitiva, inclusiva y empoderadora para todos».

Del palabra clave a la conversación: el problema a resolver

Hasta ahora, uno de los mayores desafíos para los usuarios era la rigidez del sistema de búsqueda. Tal y como la propia compañía reconoció en una entrada de su blog de ingeniería, el motor de búsqueda dependía en exceso de la coincidencia exacta de palabras clave. Esto generaba frustración y resultados poco acertados.

Un ejemplo claro, citado en la fuente original, es el de un usuario que busca el puesto de «reportero». El sistema antiguo podía devolver ofertas tanto para periodistas en medios de comunicación como para taquígrafos judiciales (court reporters en inglés), dos profesiones que, a pesar de compartir una palabra, requieren habilidades y formación completamente diferentes. El sistema carecía de la capacidad para comprender el significado semántico profundo de la consulta.

Wenjing Zhang, vicepresidenta de ingeniería de LinkedIn, profundizó en este problema en una entrevista con VentureBeat. «En el pasado, cuando usábamos palabras clave, esencialmente buscábamos una coincidencia exacta. A veces, la descripción de un puesto podía decir ‘reportero’, pero no ser realmente para un periodista; aun así, recuperábamos esa información, lo cual no es ideal para el candidato», afirmó Zhang. La necesidad de entender mejor lo que el usuario realmente busca era evidente.

Así funciona la nueva búsqueda inteligente de LinkedIn

Para construir este sistema avanzado, LinkedIn tuvo que rediseñar por completo su infraestructura de búsqueda. El proceso se divide ahora en tres etapas fundamentales, según describió Zhang:

  1. Comprensión de la consulta: Cuando un usuario escribe su petición, la IA primero debe entender la intención, las entidades (como ubicación, tipo de empresa o experiencia) y los matices de la frase.
  2. Recuperación de la información: A continuación, el sistema busca en su vasta base de datos de ofertas de empleo para encontrar aquellas que coincidan con la interpretación de la consulta.
  3. Clasificación de los resultados: Finalmente, de entre todos los candidatos potenciales, un modelo de clasificación ordena los resultados para que las ofertas más relevantes aparezcan en las primeras posiciones.

La tecnología que impulsa este cambio son los Modelos de Lenguaje Grandes (LLM), los mismos sistemas de IA que están detrás de herramientas como ChatGPT. Estos modelos, a diferencia de los algoritmos más antiguos, poseen una capacidad extraordinaria para procesar y comprender el lenguaje humano.

Sin embargo, el uso de LLMs a gran escala presenta un obstáculo considerable: su elevado coste computacional. Entrenar y ejecutar estos modelos requiere una enorme cantidad de potencia de procesamiento, lo que se traduce en un alto gasto en unidades de procesamiento gráfico (GPU).

El desafío del coste y la solución de la destilación

Para superar este reto, los ingenieros de LinkedIn recurrieron a una ingeniosa técnica conocida como destilación de modelos. El concepto es relativamente sencillo de entender si se usa una analogía: se utiliza un modelo de IA muy grande y potente, pero lento y caro (el «modelo maestro»), para entrenar a modelos más pequeños, especializados y eficientes (los «modelos aprendices»).

Estos modelos aprendices son capaces de realizar las tareas de recuperación y clasificación de forma mucho más rápida y económica, pero con una calidad muy cercana a la del modelo maestro que los instruyó. Gracias a este enfoque, LinkedIn ha conseguido implementar la potencia de los LLM sin incurrir en costes prohibitivos.

Esta técnica también permitió simplificar drásticamente la arquitectura interna del sistema. Lo que antes era un complejo proceso de «nueve etapas diferentes», a menudo con duplicidades, se ha transformado en un flujo de trabajo mucho más optimizado y eficiente, dividido en los dos pasos principales de recuperación y clasificación. Para asegurar que ambos modelos trabajan en sintonía, utilizan una técnica llamada optimización multiobjetivo, que alinea sus criterios para garantizar que los resultados recuperados sean los mismos que el modelo de clasificación considera más relevantes.

Una tendencia en auge en el mundo empresarial

La apuesta de LinkedIn por la búsqueda conversacional no es un hecho aislado. Se enmarca en una tendencia global en la que las grandes tecnológicas compiten por dominar la búsqueda empresarial basada en IA.

Google, por ejemplo, ha vaticinado que 2025 será el año en que la búsqueda dentro de las empresas se vuelva exponencialmente más potente gracias a estos modelos avanzados. Otras compañías como Cohere están desarrollando herramientas para romper las barreras del lenguaje dentro de las organizaciones, mientras que los productos de «investigación profunda» de gigantes como OpenAI y Anthropic demuestran la creciente demanda de agentes de IA capaces de analizar datos internos.

Este lanzamiento es solo la última de una serie de iniciativas de IA de LinkedIn. El pasado octubre, la plataforma ya presentó un asistente de IA para ayudar a los reclutadores a encontrar a los candidatos más adecuados, demostrando su firme compromiso por integrar la inteligencia artificial en el núcleo de sus servicios para transformar el mercado laboral.

Deja un comentario