El CEO de Google DeepMind, Demis Hassabis, ha valorado el modelo de inteligencia artificial de la empresa china Deepseek como "el mejor trabajo" proveniente de China, aunque advierte que el entusiasmo generado está "exagerado" y no representa avances científicos significativos.
Entre el reconocimiento y la cautela
Durante un evento de Google celebrado en París previo al AI Action Summit, Hassabis describió el trabajo de Deepseek como "una pieza impresionante", señalando que "probablemente es el mejor trabajo que he visto salir de China". Sin embargo, el ejecutivo matizó sus comentarios destacando que, "a pesar del revuelo, no hay ningún avance científico nuevo… está utilizando técnicas conocidas [en IA]".
Contexto del debate
El mes pasado, Deepseek generó considerable atención en los mercados globales al afirmar que había logrado entrenar su modelo de IA a una fracción del costo de los principales actores del sector y utilizando chips Nvidia menos avanzados. Esta afirmación provocó una importante venta de acciones y generó un debate sobre si las grandes empresas tecnológicas están gastando demasiado en infraestructura de IA.
Impacto geopolítico
Hassabis reconoció la importancia geopolítica del desarrollo de Deepseek, señalando que "cambia las cosas a escala geopolítica". No obstante, reiteró que la eficiencia proclamada por la empresa china podría estar sobreestimada, mencionando que los modelos Gemini 2.0 Flash de Google son más eficientes que el modelo de Deepseek.
Predicciones sobre la AGI
Durante el evento, Hassabis también compartió su visión sobre el futuro de la Inteligencia Artificial General (AGI), sugiriendo que podríamos estar a solo cinco años de alcanzar un sistema que exhiba todas las capacidades cognitivas humanas.
"Creo que estamos cerca ahora, tal vez estamos a solo unos 5 años o algo así de un sistema así, lo que sería bastante extraordinario", afirmó Hassabis. "Y creo que la sociedad necesita prepararse para eso y para las implicaciones que tendrá".
Debate sobre riesgos y beneficios
Esta predicción se suma a otras voces prominentes en la industria, como Sam Altman, CEO de OpenAI, quien recientemente expresó su confianza en la capacidad de construir AGI "como tradicionalmente la hemos entendido".
Sin embargo, importantes científicos como Max Tegmark y Yoshua Bengio han expresado serias preocupaciones sobre los riesgos asociados con el desarrollo de la AGI, particularmente sobre la posibilidad de que los humanos pierdan el control sobre los sistemas que crean.
Perspectivas de futuro
Hassabis enfatizó la necesidad de un enfoque equilibrado en el desarrollo de la AGI: "Necesitamos asegurarnos de que derivemos los beneficios y que toda la sociedad se beneficie de ello, pero también que mitiguemos algunos de los riesgos".
La evaluación de Hassabis sobre Deepseek y sus predicciones sobre la AGI llegan en un momento crucial para la industria de la IA, donde la competencia global se intensifica y las preocupaciones sobre la seguridad y el control de estos sistemas son cada vez más prominentes.