ChatGPT se bloquea al mencionar David Mayer y otros nombres: podría ser por motivos de privacidad

Droids

Updated on:

ChatGPT se bloquea al mencionar ciertos nombres: la privacidad digital podría ser la causa

Un curioso fenómeno ha sido descubierto en ChatGPT durante el último fin de semana: el popular chatbot de inteligencia artificial se bloquea completamente cuando se le menciona el nombre «David Mayer». Este comportamiento ha despertado el interés de numerosos usuarios y ha llevado a una investigación más profunda que revela un patrón relacionado con la privacidad digital.

El descubrimiento del «efecto Mayer»

Según reporta TechCrunch, cuando los usuarios intentan hacer preguntas que incluyen el nombre «David Mayer», ChatGPT responde con un mensaje de error o directamente se bloquea, siendo incapaz de completar la respuesta. El fenómeno se ha reproducido consistentemente en múltiples intentos por parte de diversos usuarios.

No solo David Mayer

La investigación posterior ha revelado que este no es un caso aislado. Otros nombres que provocan el mismo efecto incluyen:

  • Brian Hood
  • Jonathan Turley
  • Jonathan Zittrain
  • David Faber
  • Guido Scorza

La conexión con la privacidad digital

Lo que hace especialmente interesante este caso es que muchas de estas personas tienen conexiones con temas de privacidad digital o han estado involucradas en casos relacionados con la protección de datos personales en línea.

Por ejemplo, Brian Hood, alcalde australiano, fue noticia el año pasado cuando amenazó con demandar a OpenAI por difamación, después de que ChatGPT lo asociara incorrectamente con un delito que él había denunciado.

El caso particular de David Mayer

El profesor David Mayer, fallecido en 2023 a los 94 años, representa un caso particularmente ilustrativo. Durante años, este académico británico-estadounidense tuvo que lidiar con un problema de identidad digital: su nombre había sido utilizado como alias por un terrorista buscado, lo que le causó numerosos problemas, incluyendo restricciones para viajar.

La explicación técnica

Aunque OpenAI no ha respondido oficialmente a las solicitudes de aclaración, los expertos sugieren que estos bloqueos podrían estar relacionados con listas especiales de nombres que requieren un tratamiento particular en el sistema. Estas listas podrían estar vinculadas a solicitudes de privacidad, órdenes judiciales o políticas de protección de datos.

Actualizado 4 de diciembre de 2024: finalmente hay una explicación oficial de OpenAI, que lo achaca a un glitch o error en el sistema.

Implicaciones para la comprensión de la IA

Este incidente sirve como recordatorio de que los modelos de IA como ChatGPT no son simples sistemas autónomos, sino que están sujetos a controles y regulaciones activas. Como señala TechCrunch, estos sistemas son «extra-fancy auto-complete» que están activamente monitorizados e intervenidos por las empresas que los desarrollan.

Conclusión

El caso del «efecto Mayer» ilustra la compleja intersección entre la inteligencia artificial, la privacidad digital y los derechos individuales en la era de la información. También demuestra cómo las medidas de protección de la privacidad pueden tener efectos inesperados en el funcionamiento de los sistemas de IA más avanzados.

Este incidente sirve como recordatorio de que, al consultar información en chatbots de IA, puede ser más conveniente acudir directamente a las fuentes originales para obtener información precisa y contextualizada.

Deja un comentario