DeepMind publica extenso documento sobre seguridad de la IA general que no convence a los escépticos

Droids

Updated on:

DeepMind publica extenso documento sobre seguridad de la IA general que no convence a los escépticos

Google DeepMind ha publicado un exhaustivo documento de 145 páginas sobre su enfoque de seguridad para la Inteligencia Artificial General (AGI), definida aproximadamente como IA que puede realizar cualquier tarea que un humano pueda hacer. Sin embargo, las reacciones de varios expertos sugieren que este extenso análisis podría no ser suficiente para convencer a los escépticos sobre los riesgos planteados.

El controvertido concepto de AGI

La AGI es un tema bastante polémico en el campo de la inteligencia artificial. Mientras algunos críticos argumentan que se trata poco más que una fantasía inalcanzable, otros, incluyendo importantes laboratorios de IA como Anthropic, advierten que podría estar a la vuelta de la esquina y podría resultar en daños catastróficos si no se implementan las salvaguardias adecuadas.

El documento de DeepMind, co-escrito por el cofundador de la empresa Shane Legg, predice que la AGI podría llegar antes de 2030, y que podría resultar en lo que los autores denominan "daños severos". Aunque el texto no define concretamente este término, menciona ejemplos alarmistas como "riesgos existenciales" que podrían "destruir permanentemente a la humanidad".

"[Anticipamos] el desarrollo de una AGI Excepcional antes del final de la década actual", escribieron los autores. "Una AGI Excepcional es un sistema que tiene una capacidad que coincide al menos con el percentil 99 de adultos calificados en una amplia gama de tareas no físicas, incluidas tareas metacognitivas como aprender nuevas habilidades".

DeepMind frente a sus competidores

Desde el principio, el documento contrasta el enfoque de DeepMind para la mitigación de riesgos de AGI con los de Anthropic y OpenAI. Según el texto, Anthropic pone menos énfasis en "entrenamiento robusto, monitoreo y seguridad", mientras que OpenAI es excesivamente optimista sobre la "automatización" de una forma de investigación de seguridad de IA conocida como investigación de alineamiento.

El documento también pone en duda la viabilidad de la IA superinteligente —IA que puede realizar trabajos mejor que cualquier humano. OpenAI recientemente afirmó que está desviando su objetivo de la AGI hacia la superinteligencia. Sin embargo, los autores de DeepMind no están convencidos de que los sistemas superinteligentes emergerán pronto, si es que lo hacen alguna vez, en ausencia de "innovación arquitectónica significativa".

El peligro de la mejora recursiva de IA

El informe sí encuentra plausible que los paradigmas actuales permitan la "mejora recursiva de IA": un ciclo de retroalimentación positiva donde la IA realiza su propia investigación de IA para crear sistemas de IA más sofisticados. Y esto podría ser increíblemente peligroso, según afirman los autores.

A nivel general, el documento propone y aboga por el desarrollo de técnicas para bloquear el acceso de actores malintencionados a la hipotética AGI, mejorar la comprensión de las acciones de los sistemas de IA y "endurecer" los entornos en los que la IA puede actuar. Reconoce que muchas de las técnicas son incipientes y tienen "problemas de investigación abiertos", pero advierte contra ignorar los desafíos de seguridad que posiblemente están en el horizonte.

"La naturaleza transformadora de la AGI tiene el potencial tanto de beneficios increíbles como de daños severos", escriben los autores. "Como resultado, para construir AGI de manera responsable, es fundamental que los desarrolladores de IA de vanguardia planifiquen proactivamente para mitigar daños severos".

Voces críticas entre los expertos

Algunos expertos discrepan con las premisas del documento. Heidy Khlaaf, científica jefe de IA en la organización sin fines de lucro AI Now Institute, dijo a TechCrunch que piensa que el concepto de AGI está demasiado mal definido para ser "evaluado rigurosamente de manera científica".

Otro investigador de IA, Matthew Guzdial, profesor asistente en la Universidad de Alberta, afirmó que no cree que la mejora recursiva de IA sea realista en la actualidad.

"[La mejora recursiva] es la base para los argumentos sobre la singularidad de la inteligencia", dijo Guzdial a TechCrunch, "pero nunca hemos visto ninguna evidencia de que funcione".

Sandra Wachter, investigadora que estudia tecnología y regulación en Oxford, argumenta que una preocupación más realista es la IA reforzándose con "resultados inexactos".

"Con la proliferación de resultados de IA generativa en internet y el reemplazo gradual de datos auténticos, los modelos ahora están aprendiendo de sus propios resultados que están plagados de falsedades, o alucinaciones", dijo a TechCrunch. "En este punto, los chatbots se utilizan predominantemente para búsquedas y propósitos de búsqueda de la verdad. Eso significa que estamos constantemente en riesgo de que nos alimenten falsedades y creerlas porque se presentan de manera muy convincente".

Un debate que sigue abierto

Por exhaustivo que pueda ser, el documento de DeepMind parece poco probable que resuelva los debates sobre cuán realista es la AGI y las áreas de seguridad de IA que necesitan atención más urgente.

El debate sobre la AGI refleja una división fundamental en el campo de la inteligencia artificial: mientras algunas de las principales empresas como DeepMind, OpenAI y Anthropic creen en la posibilidad (e incluso inevitabilidad) de sistemas de IA generales con capacidades similares o superiores a las humanas, otros investigadores cuestionan tanto la definición como la viabilidad de tales sistemas.

Lo que queda claro es que esta discusión está lejos de resolverse. Las predicciones de DeepMind sobre una AGI para 2030 serán puestas a prueba en los próximos años, mientras el campo de la IA continúa desarrollándose a un ritmo acelerado. Mientras tanto, este documento de 145 páginas representa uno de los intentos más detallados hasta la fecha de una empresa líder en IA para articular cómo se podría abordar la seguridad de sistemas de IA cada vez más capaces, independientemente de si alguna vez alcanzan el estatus controvertido de "AGI".

El tiempo dirá si estas preocupaciones estaban justificadas o si, como sugieren los escépticos, el concepto mismo de AGI necesita ser repensado antes de que podamos tener un debate productivo sobre sus riesgos y beneficios potenciales.

Deja un comentario