La startup de chips de inteligencia artificial Groq, que ha emergido como una de las amenazas más serias al dominio de Nvidia, se encuentra en conversaciones avanzadas para cerrar una nueva ronda de financiación que podría valorar la compañía en 6.000 millones de dólares (aproximadamente 5.600 millones de euros). Este movimiento subraya la intensa carrera que se libra en Silicon Valley por desarrollar el hardware que impulsará la próxima generación de la inteligencia artificial.
Groq, conocida por su innovadora arquitectura de chips, busca capitalizar el enorme interés que ha despertado su tecnología, capaz de ejecutar modelos de lenguaje a una velocidad sin precedentes. Si la ronda se concreta, proporcionaría a la empresa el músculo financiero necesario para escalar su producción y competir de manera más directa con el gigante del sector, Nvidia.
Una inyección de capital para competir en la élite
Según un informe de Reuters que cita a la publicación The Information, Groq aspira a recaudar alrededor de 300 millones de dólares (unos 280 millones de euros) en esta nueva ronda. Las conversaciones estarían siendo lideradas por la firma de capital privado General Atlantic, aunque las negociaciones aún no han concluido y podrían no llegar a materializarse.
Esta valoración de 6.000 millones de dólares representa un salto exponencial para la compañía. En su última ronda de financiación significativa en 2021, en la que participaron inversores de peso como Tiger Global y D1 Capital, Groq fue valorada en algo más de 1.000 millones de dólares (aproximadamente 930 millones de euros). El aumento de seis veces en su valoración en menos de tres años refleja no solo el progreso de su tecnología, sino también la ferviente demanda de soluciones alternativas a los chips de Nvidia.
La promesa de la velocidad: el poder de los LPU
La principal baza de Groq reside en su enfoque tecnológico único. En lugar de utilizar Unidades de Procesamiento Gráfico (GPU), como las que fabrica Nvidia, Groq ha desarrollado lo que denomina Unidades de Procesamiento de Lenguaje (LPU, por sus siglas en inglés). Estos chips están diseñados desde cero para una tarea muy específica: la inferencia de modelos de IA.
Para entenderlo de forma sencilla, en el mundo de la IA existen dos procesos fundamentales: el entrenamiento y la inferencia. El entrenamiento es el proceso intensivo y costoso en el que un modelo aprende a partir de ingentes cantidades de datos, similar a un estudiante que se prepara para un examen. La inferencia, por otro lado, es el proceso de utilizar ese modelo ya entrenado para realizar tareas, como responder a una pregunta o generar una imagen. Es el equivalente a que el estudiante use su conocimiento para superar el examen.
Groq se ha especializado en hacer que el proceso de inferencia sea extraordinariamente rápido. Sus demostraciones públicas, que se volvieron virales a principios de año, mostraban modelos de lenguaje generando texto a una velocidad de casi 500 «tokens» (fragmentos de palabras) por segundo, superando ampliamente el rendimiento de las soluciones basadas en GPU. Esta velocidad es crucial para aplicaciones en tiempo real y para mejorar la experiencia del usuario en chatbots y otros servicios de IA.
El propio CEO de la compañía, Jonathan Ross, ha destacado este logro. En una publicación reciente, afirmó que «Groq está estableciendo un nuevo estándar de velocidad de inferencia de IA«, una declaración que ha resonado en toda la industria tecnológica.
El desafío al gigante Nvidia en un mercado en auge
La ofensiva de Groq se produce en un momento de ebullición en el mercado de hardware de IA. El éxito masivo de herramientas como ChatGPT de OpenAI ha disparado la demanda de chips capaces de entrenar y ejecutar estos complejos modelos. Este auge ha catapultado a Nvidia a una valoración de mercado superior a los 2 billones de dólares (más de 1,86 billones de euros), otorgándole un control de más del 80% del mercado de chips de IA.
Sin embargo, el dominio de Nvidia ha creado también un cuello de botella. Los largos tiempos de espera para obtener sus codiciados chips H100 y la alta concentración del mercado han abierto una ventana de oportunidad para nuevos competidores. Empresas de todos los tamaños, desde gigantes tecnológicos como Google, Amazon y Microsoft hasta startups ágiles, están desarrollando sus propias soluciones.
En este panorama, Groq no está sola. Otras startups como Cerebras Systems y Untether AI también compiten por un trozo del pastel. Incluso Sam Altman, el CEO de OpenAI, ha expresado su ambición de crear una red global de fabricación de chips para reducir la dependencia de un único proveedor. No obstante, la combinación de una tecnología probadamente rápida y un liderazgo experimentado posiciona a Groq como uno de los contendientes más prometedores.
El pedigrí de Google como garantía de innovación
Una de las razones por las que Groq es tomada tan en serio por inversores y expertos es el historial de su fundador y CEO, Jonathan Ross. Antes de fundar Groq en 2016, Ross fue una figura clave en Google, donde lideró el proyecto que dio vida a la Unidad de Procesamiento Tensorial (TPU).
La TPU fue el primer chip de IA a gran escala diseñado a medida por una gran tecnológica para acelerar sus propias cargas de trabajo de aprendizaje automático. El éxito de este proyecto demostró que las arquitecturas de hardware especializadas podían ofrecer un rendimiento muy superior al de las GPU de uso general para tareas de IA. La experiencia de Ross en la creación de la TPU le otorga una credibilidad y un conocimiento profundo que pocos en el mundo pueden igualar.
Con esta nueva inyección de capital, si finalmente se confirma, Groq no solo obtendrá los fondos para expandir sus operaciones, sino también una validación crucial de su estrategia y tecnología por parte del mercado. La batalla por el futuro del hardware de la IA está lejos de terminar, pero Groq acaba de dar un paso de gigante para convertirse en uno de sus protagonistas principales.






