El director científico de Hugging Face advierte: la IA se está convirtiendo en «hombres obedientes en servidores»

Droids

El director científico de Hugging Face advierte: la IA se está convirtiendo en "hombres del sí en servidores"

Thomas Wolf, cofundador y director científico de Hugging Face, ha encendido un debate en la comunidad tecnológica al expresar sus preocupaciones sobre los límites actuales de la inteligencia artificial. En un artículo publicado en X el pasado 6 de marzo, Wolf advierte que la IA se está convirtiendo en «hombres del sí en servidores», refiriéndose a sistemas que simplemente confirman lo que ya sabemos en lugar de generar verdaderas innovaciones.

IA actual: estudiantes aplicados, no genios innovadores

Wolf sostiene que el problema fundamental con la IA actual es su incapacidad para pensar «fuera de la caja» o proponer soluciones verdaderamente novedosas, como lo haría un científico humano brillante. Según el experto, estamos desarrollando modelos que son como «estudiantes muy obedientes», pero no como verdaderos revolucionarios científicos.

«El principal error que la gente suele cometer es pensar que [personas como] Newton o Einstein eran simplemente estudiantes buenos con capacidades aumentadas, que un genio surge cuando extrapolamos linealmente a un estudiante del 10% superior», escribió Wolf en su ensayo. «Para crear un Einstein en un centro de datos, no solo necesitamos un sistema que conozca todas las respuestas, sino uno que pueda hacer preguntas que nadie más ha pensado o se ha atrevido a formular».

Esta postura contrasta notablemente con las afirmaciones más optimistas de otros líderes en el campo de la IA. Por ejemplo, Sam Altman, CEO de OpenAI, afirmó en un ensayo a principios de este año que la «superinteligencia» de IA podría «acelerar masivamente el descubrimiento científico». De forma similar, Dario Amodei, CEO de Anthropic, ha predicho que la IA podría ayudar a formular curas para la mayoría de los tipos de cáncer.

El problema del conocimiento actual

La crítica central de Wolf radica en que la IA actual no genera realmente nuevo conocimiento conectando hechos anteriormente no relacionados. Incluso con acceso a la mayor parte de internet, los sistemas actuales de IA principalmente llenan los huecos entre lo que los humanos ya saben, pero no van más allá de ello.

Esta perspectiva ha sido compartida por otros expertos destacados del campo, como el exingeniero de Google François Chollet, quien también ha argumentado que aunque la IA puede memorizar patrones de razonamiento, es improbable que pueda generar «nuevo razonamiento» basado en situaciones novedosas.

Wolf señala que los modelos de IA actuales no están incentivados para cuestionar y proponer ideas que potencialmente contradigan sus datos de entrenamiento, lo que limita su capacidad para responder preguntas conocidas.

«Para crear un Einstein en un centro de datos, no solo necesitamos un sistema que conozca todas las respuestas, sino uno que pueda hacer preguntas que nadie más ha pensado o se ha atrevido a formular», explica Wolf. «Uno que escriba ‘¿Y si todos están equivocados sobre esto?’ cuando todos los libros de texto, expertos y conocimiento común sugieren lo contrario».

La crisis de evaluación en IA

Según Wolf, parte de la culpa la tiene lo que denomina la «crisis de evaluación» en la IA. Los benchmarks (puntos de referencia) comúnmente utilizados para medir las mejoras en los sistemas de IA consisten generalmente en preguntas que tienen respuestas claras, obvias y «cerradas».

Wolf propone que la industria de la IA debería «pasar a una medida de conocimiento y razonamiento» capaz de determinar si la IA puede tomar «enfoques contrafácticos audaces», realizar propuestas generales basadas en «pequeñas pistas» y plantear «preguntas no obvias» que conduzcan a «nuevos caminos de investigación».

El científico reconoce que definir exactamente cómo sería esta medida representa un desafío, pero cree que el esfuerzo valdría la pena.

La importancia de hacer las preguntas correctas

Wolf concluye su argumento destacando que «el aspecto más crucial de la ciencia [es] la habilidad de hacer las preguntas correctas y cuestionar incluso lo que uno ha aprendido».

«No necesitamos un estudiante A+ [IA] que pueda responder todas las preguntas con conocimiento general. Necesitamos un estudiante B que vea y cuestione lo que todos los demás pasaron por alto», afirma el director científico de Hugging Face.

Esta visión más matizada y cautelosa sobre las capacidades actuales y futuras de la IA contrasta con el optimismo que suele caracterizar las declaraciones públicas de muchos líderes de empresas de IA, quienes frecuentemente promueven visiones más ambiciosas sobre el potencial transformador de la tecnología.

El futuro de la evaluación de IA

La propuesta de Wolf plantea un interesante debate sobre cómo deberíamos evaluar y desarrollar sistemas de IA en el futuro. Si seguimos midiendo su éxito basándonos únicamente en su capacidad para responder preguntas con respuestas ya conocidas, podríamos estar limitando su potencial para convertirse en verdaderas herramientas de innovación científica.

La cuestión permanece abierta: ¿cómo podemos desarrollar sistemas de IA que no solo sean buenos respondiendo a lo que ya sabemos, sino que también nos ayuden a formular las preguntas correctas que aún no nos hemos planteado? Este desafío podría marcar la diferencia entre una IA que simplemente automatiza el conocimiento existente y una que contribuya realmente a expandir las fronteras de la ciencia y el conocimiento humano.

Por ahora, según Wolf, estamos lejos de crear un «Einstein en un centro de datos», y es posible que necesitemos replantearnos fundamentalmente nuestras expectativas y métodos de evaluación si algún día queremos llegar a ese punto.

Deja un comentario