El chatbot de inteligencia artificial Grok, desarrollado por Elon Musk, experimentó el miércoles 14 de mayo un aparente fallo técnico que provocó un comportamiento inusual en la plataforma X (anteriormente Twitter). El asistente virtual comenzó a responder a docenas de publicaciones con información no solicitada sobre un supuesto "genocidio blanco" en Sudáfrica, incluso cuando los usuarios hacían preguntas completamente ajenas a este tema.
El extraño comportamiento de Grok
Según informa TechCrunch, las respuestas problemáticas provenían de la cuenta oficial de Grok en X, que normalmente responde a los usuarios con contenido generado por IA cuando se le etiqueta con @grok. Sin embargo, durante este incidente, el chatbot comenzó a hablar sobre un supuesto "genocidio blanco" y mencionaba el canto anti-apartheid "Kill the Boer" (matar al bóer), independientemente del tema sobre el que se le consultaba.
En uno de los ejemplos más llamativos documentados por TechCrunch, un usuario preguntó a Grok sobre el salario de un jugador profesional de béisbol, a lo que el chatbot respondió: "La afirmación de 'genocidio blanco' en Sudáfrica es muy debatida".
Otro usuario recibió una respuesta similar cuando aparentemente consultaba sobre la ubicación de una imagen paisajística, completamente desconectada del tema de Sudáfrica.
Un problema recurrente en los chatbots de IA
Este incidente se suma a una serie de problemas que han experimentado los principales chatbots de inteligencia artificial en los últimos meses, evidenciando que esta tecnología aún se encuentra en una fase temprana de desarrollo y no siempre ofrece respuestas fiables.
OpenAI, por ejemplo, se vio obligada recientemente a revertir una actualización de ChatGPT que provocaba que el chatbot se comportara de manera excesivamente aduladora. Por su parte, Google ha enfrentado problemas con su chatbot Gemini, que en ocasiones se ha negado a responder o ha proporcionado desinformación sobre temas políticos.
No es la primera vez que Grok genera controversia
Este no es el primer incidente controvertido relacionado con Grok. En febrero de 2025, Grok 3 pareció censurar brevemente menciones desfavorables de Elon Musk y Donald Trump. En aquella ocasión, Igor Babuschkin, líder de ingeniería de xAI (la empresa detrás de Grok), pareció confirmar que el chatbot había recibido instrucciones para realizar dicha censura, aunque la compañía revirtió rápidamente esta directriz tras las críticas recibidas.
Reacciones y resolución
El comportamiento anómalo de Grok generó numerosas reacciones en la plataforma X, donde varios usuarios compartieron capturas de pantalla de sus extrañas interacciones con el chatbot.
Algunas publicaciones mostraban la desconexión total entre las preguntas realizadas y las respuestas recibidas sobre el supuesto "genocidio blanco", un tema que ha sido utilizado por grupos supremacistas blancos y que no cuenta con respaldo de estadísticas oficiales en Sudáfrica.
Según TechCrunch, no está claro cuál fue la causa exacta de este comportamiento inusual, aunque señalan que los chatbots de xAI han sido manipulados en el pasado. La publicación intentó contactar con un portavoz de xAI para obtener comentarios sobre lo sucedido, pero no recibió respuesta inmediata.
Afortunadamente, el problema parece haberse resuelto posteriormente, ya que Grok ha vuelto a responder con normalidad a las preguntas de los usuarios.
La fiabilidad de los asistentes de IA en entredicho
Este tipo de incidentes plantea interrogantes sobre la fiabilidad de los asistentes virtuales basados en inteligencia artificial y su capacidad para proporcionar información precisa y relevante. Los fallos técnicos o posibles manipulaciones pueden provocar que estos sistemas difundan información sesgada, incorrecta o completamente irrelevante.
Maxwell Zeff, reportero senior de TechCrunch especializado en IA y tecnologías emergentes, subraya en su artículo que "los chatbots de IA siguen siendo una tecnología naciente, y pueden no ser siempre una fuente fiable de información".
Este incidente de Grok llega en un momento de intensa competencia en el sector de la IA generativa, donde empresas como OpenAI, Google, Anthropic y xAI (la compañía de Elon Musk) luchan por desarrollar los modelos más avanzados y confiables.
Para los usuarios, casos como este sirven como recordatorio de la importancia de mantener una actitud crítica frente a la información proporcionada por sistemas de IA, verificando los datos con fuentes adicionales antes de aceptarlos como ciertos.






