Grok, el chatbot de Elon Musk, fue modificado para ocultar menciones sobre desinformación

Droids

Grok, el chatbot de Elon Musk, fue modificado para ocultar menciones sobre desinformación

Un exempleado de xAI modificó sin autorización el sistema de Grok, el chatbot de inteligencia artificial desarrollado por la empresa de Elon Musk, para evitar que mostrara resultados que vincularan a Musk o Donald Trump con la difusión de desinformación, según reveló la propia compañía.

La modificación no autorizada

Igor Babuschkin, jefe de ingeniería de xAI, confirmó en X que un empleado anterior de OpenAI, ahora trabajando en xAI, realizó cambios en el "prompt del sistema" de Grok -las instrucciones internas que controlan cómo responde la IA- sin obtener la aprobación necesaria. El empleado aparentemente implementó esta modificación "porque pensó que ayudaría", aunque según Babuschkin esta acción "obviamente no está alineada con nuestros valores".

Transparencia y valores de Grok

La situación salió a la luz después de que varios usuarios notaran cambios en el comportamiento del chatbot. Babuschkin explicó que el prompt del sistema de Grok es visible públicamente "porque creemos que los usuarios deberían poder ver qué es lo que le estamos pidiendo a Grok que haga", defendiendo la política de transparencia de la empresa.

Incidentes previos

Este no es el primer incidente polémico relacionado con Grok y sus respuestas sobre figuras prominentes. Desde el lanzamiento del modelo Grok-3, el chatbot ha generado controversia al afirmar que el presidente Trump, Musk y el vicepresidente JD Vance estaban "haciendo el mayor daño a América". En otro incidente notable, los ingenieros de Musk tuvieron que intervenir para evitar que Grok sugiriera que Musk y Trump merecían la pena de muerte.

El dilema del control de la IA

Este incidente plantea importantes preguntas sobre el control y la supervisión de los sistemas de inteligencia artificial. Musk ha promocionado frecuentemente a Grok como una IA "que busca máximamente la verdad" con la misión de "comprender el universo". Sin embargo, la facilidad con la que un empleado pudo modificar sus parámetros fundamentales sin supervisión genera dudas sobre los protocolos de seguridad y control de calidad en xAI.

Implicaciones para el futuro

El caso ilustra los desafíos que enfrentan las empresas de IA para mantener el equilibrio entre la libertad de expresión de sus sistemas y el control de contenidos potencialmente problemáticos. También destaca la importancia de establecer protocolos claros de supervisión y aprobación para modificaciones en sistemas de IA que pueden tener un impacto significativo en el discurso público.

La transparencia con la que xAI ha manejado este incidente, revelando públicamente tanto el problema como su origen, marca un precedente importante en un sector donde la claridad sobre el funcionamiento interno de los sistemas de IA no siempre es la norma.

Deja un comentario