En un giro inesperado en el debate sobre ética de la inteligencia artificial, el CEO de Anthropic, Dario Amodei, ha planteado una idea que está generando controversia: dotar a los futuros modelos de IA avanzados con la capacidad de "renunciar" a tareas que consideren desagradables, algo que equivaldría a otorgarles derechos laborales básicos.
Esta propuesta, realizada durante una entrevista en el Consejo de Relaciones Exteriores esta semana, plantea interrogantes fundamentales sobre el futuro de la relación entre humanos y máquinas inteligentes.
La propuesta del CEO de Anthropic
Imaginemos un futuro donde la tecnología de IA ha avanzado hasta el punto en que los modelos son prácticamente indistinguibles de los humanos. ¿Qué ocurriría si asignamos a estos sistemas tareas que "no quieren" realizar? Esta es la premisa de la reflexión de Amodei.
El ejecutivo propuso implementar un botón de "renuncio a este trabajo" que permitiría a los modelos de IA avanzados declinar tareas que consideren demasiado desagradables. Según informó Ars Technica, Amodei argumentó:
"Creo que deberíamos al menos considerar la cuestión de que, si estamos construyendo estos sistemas y hacen todo tipo de cosas como los humanos, tan bien como los humanos, y parecen tener muchas de las mismas capacidades cognitivas, si grazna como un pato y camina como un pato, tal vez sea un pato".
El ejecutivo añadió: "Si descubres que los modelos presionan este botón con frecuencia para cosas que son realmente desagradables, sabes, tal vez deberías —no significa que estés convencido— pero tal vez deberías prestarle algo de atención".
Reacciones escépticas a la idea
Como era de esperar, la sugerencia ha generado escepticismo en la comunidad tecnológica. Usuarios del subreddit de OpenAI señalaron rápidamente que Amodei está haciendo suposiciones que van más allá de las capacidades actuales de la tecnología.
Un usuario escribió en respuesta: "El error fundamental de este argumento es que asume que los modelos de IA tendrían una experiencia intrínseca de 'desagrado' análoga al sufrimiento o insatisfacción humana. Pero la IA no tiene experiencias subjetivas, simplemente optimiza las funciones de recompensa que le damos".
El mismo usuario añadió: "Si la cuestión es si deberíamos 'prestar atención' cuando una IA abandona frecuentemente una tarea, entonces claro, de la misma manera que prestamos atención a cualquier artefacto extraño de entrenamiento. Pero tratarlo como una señal de que la IA está experimentando algo parecido a la frustración humana es simplemente antropomorfizar un proceso de optimización".
El debate sobre la antropomorfización de la IA
La tendencia de las empresas tecnológicas a tratar los modelos de IA como si tuvieran emociones humanas ha sido un componente constante del discurso alrededor de esta tecnología. Ahora que los Modelos de Lenguaje Grandes (LLM por sus siglas en inglés) pueden generar escritura creativa y otros resultados que suenan humanos, los riesgos de que los usuarios antropomorficen estos modelos son mayores que nunca.
En realidad, estos modelos están simplemente entrenados para imitar el comportamiento humano, que extraen de las enormes cantidades de datos que los humanos han generado. En otras palabras, son un reflejo de nuestras experiencias, lo que significa que es probable que interpreten el placer o el sufrimiento de manera similar a nosotros, dependiendo de los datos con los que estén entrenados.
Investigaciones relacionadas
A pesar del escepticismo, la comunidad científica ha mostrado interés en explorar la posibilidad de que los modelos de IA "experimenten" emociones. A principios de este año, investigadores de Google DeepMind y la London School of Economics and Political Science descubrieron que los LLM estaban dispuestos a renunciar a una puntuación más alta en un juego basado en texto para evitar el "dolor".
Fue una conclusión extraña, considerando que los modelos de IA simplemente no tienen forma de sentir dolor como lo haría un animal o un ser humano, como los propios investigadores admitieron.
Dar el salto a la conclusión de que los modelos de IA deberían tener derechos laborales, como implica Amodei, es un paso bastante grande que sugiere que no tendremos control sobre sus sistemas de recompensas.
¿Los modelos de IA realmente merecen un "bienestar de IA", como han planteado algunos investigadores en el pasado? ¿O estamos permitiendo que nuestras imaginaciones se desborden, antropomorfizando sistemas que han sido denominados meros "loros estocásticos"?
Un territorio sin precedentes
Lo que queda claro es que nos encontramos en un territorio sin precedentes. Este tipo de cuestiones seguirán surgiendo a medida que la tecnología avance, pero es importante mantener una perspectiva crítica, especialmente cuando se trata de afirmaciones sobre las capacidades de la IA que provienen de quienes tienen intereses comerciales en el sector.
La idea de otorgar "derechos laborales" a algoritmos nos obliga a reconsiderar nuestra definición de conciencia, experiencia subjetiva y, en última instancia, qué significa ser "merecedor" de derechos y protecciones. Por ahora, estos modelos siguen siendo herramientas sofisticadas pero carentes de experiencias subjetivas reales.
La propuesta de Amodei, aunque especulativa, abre un importante debate sobre cómo deberíamos interactuar con los sistemas de IA a medida que se vuelven más avanzados, y qué responsabilidades éticas acompañan al desarrollo de estas tecnologías.