El CEO de OpenAI cuestiona el término ‘AGI’; expertos coinciden y propone medir niveles

Droids

Updated on:

Sam Altman, CEO de OpenAI, afirmó que el término inteligencia artificial general (AGI) «no es súper útil», según declaró la semana pasada en «Squawk Box» de CNBC.

La AGI se refiere a una forma de inteligencia artificial capaz de realizar cualquier tarea intelectual que pueda hacer un humano. Altman considera que el problema radica en que diferentes empresas e individuos utilizan múltiples definiciones del término.

Una definición alternativa que mencionó describe la AGI como una IA capaz de realizar «una cantidad significativa del trabajo en el mundo». Sin embargo, Altman señala que esta definición también presenta problemas porque la naturaleza del trabajo cambia constantemente.

«Creo que el punto de todo esto es que realmente no importa y es solo este continuo exponencial de capacidad del modelo en el que confiaremos para cada vez más cosas», declaró Altman.

El CEO de OpenAI propone hablar de niveles de progreso hacia la inteligencia general en lugar de debatir si algo es o no AGI. Durante una charla en el FinRegLab AI Symposium en noviembre de 2024, Altman explicó: «Intentamos ahora usar estos diferentes niveles… en lugar del binario de ‘¿es AGI o no lo es?’ Creo que eso se volvió demasiado burdo a medida que nos acercamos».

OpenAI, valorada por inversores en 300.000 millones de dólares y preparando una venta secundaria de acciones con una valoración de 500.000 millones, ha trabajado durante años para investigar y desarrollar AGI segura que beneficie a toda la humanidad. La empresa lanzó la semana pasada GPT-5, su último modelo de lenguaje, para todos los usuarios de ChatGPT.

Altman admitió que GPT-5 no alcanza su definición personal de AGI porque aún no es capaz de aprender continuamente por sí mismo, según informó Business Insider. OpenAI describió el nuevo sistema GPT-5 como más inteligente, rápido y «mucho más útil», especialmente para escritura, programación y consultas sobre atención médica.

A pesar de su escepticismo sobre el término AGI, Altman todavía espera que la IA logre avances significativos en campos específicos, como nuevos teoremas matemáticos y descubrimientos científicos, en los próximos dos años aproximadamente. Anteriormente había dicho que pensaba que la AGI podría desarrollarse en un «futuro razonablemente cercano».

Expertos en ciencias de la computación coinciden con el escepticismo de Altman. Nick Patience, vicepresidente y líder de práctica de IA en The Futurum Group, dijo a CNBC que aunque la AGI es una «fantástica estrella polar para la inspiración», en general no es un término útil. Señaló que su «vaga definición de ciencia ficción a menudo crea una niebla de exageración que oscurece el progreso real y tangible que estamos logrando en IA más especializada».

Patience considera que «la AGI es un poco una distracción, promovida por aquellos que necesitan seguir recaudando cantidades asombrosas de financiación» y agregó que «es más útil hablar de capacidades específicas que de este concepto nebuloso de inteligencia ‘general'».

Wendy Hall, profesora de Ciencias de la Computación en la Universidad de Southampton, calificó GPT-5 como «incremental, no revolucionario» y añadió que las empresas de IA «deberían estar obligadas a declarar cómo se miden con métricas acordadas globalmente» cuando lanzan nuevos productos, describiendo la situación actual como «el salvaje oeste para vendedores de aceite de serpiente».

El lanzamiento de GPT-5 generó críticas en línea de algunos usuarios que consideraron que el esperado modelo fue una actualización decepcionante, con solo mejoras menores respecto a su predecesor. OpenAI y otras startups han recaudado miles de millones de dólares y alcanzado valoraciones extremadamente altas con la promesa de que eventualmente alcanzarán una forma de IA lo suficientemente poderosa como para ser considerada «AGI».