Madrid, 11 de junio de 2025. Los servicios de OpenAI, con su popular chatbot ChatGPT a la cabeza, sufrieron este martes una interrupción generalizada que se prolongó durante gran parte del día, dejando a millones de usuarios en todo el mundo sin acceso o con un rendimiento muy degradado. La compañía ha confirmado que la mayoría de los problemas ya han sido solucionados, aunque algunos componentes, como el modo de voz, todavía presentan fallos. La incidencia también provocó un efecto en cadena, afectando a otras plataformas que dependen de la tecnología de OpenAI.
El incidente pone de manifiesto la creciente dependencia global de las herramientas de inteligencia artificial y la vulnerabilidad de los ecosistemas digitales que se construyen sobre ellas.
Cronología de una caída anunciada
Los primeros indicios de que algo no iba bien comenzaron en la madrugada del martes. Según los datos de la plataforma de monitorización Downdetector, los problemas se iniciaron alrededor de las 3:00 AM ET (9:00 de la mañana en España), con informes que se multiplicaron rápidamente desde múltiples regiones del planeta.
Los usuarios acudieron a las redes sociales para compartir su experiencia. Plataformas como X (anteriormente Twitter) y foros en Reddit se llenaron de quejas y capturas de pantalla. El comportamiento del servicio variaba: para algunos, el chatbot era extremadamente lento, tardando mucho más de lo habitual en generar respuestas. Para otros, el acceso era imposible, encontrándose con un escueto pero frustrante mensaje de error: «Hmm…something seems to have gone wrong» («Hmm… parece que algo ha ido mal»).
La interrupción no solo afectó a la versión web y a las aplicaciones de ChatGPT, sino que también impactó en otros productos de la compañía, como su innovadora herramienta de generación de vídeo a partir de texto, Sora, y sus Interfaces de Programación de Aplicaciones (API), que son cruciales para el funcionamiento de miles de aplicaciones de terceros.
La respuesta de OpenAI y el camino hacia la recuperación
OpenAI no tardó en reconocer públicamente la situación. A través de su página oficial de estado, la compañía informó inicialmente de que estaban experimentando «tasas de error elevadas y latencia» en varios de sus servicios. A las 5:23 AM ET, la situación de Sora se agravó, mereciendo una línea específica en el informe de estado. Poco después, el estatus tanto de ChatGPT como de Sora fue actualizado a «interrupción parcial».
La jornada transcurrió con la incertidumbre de millones de profesionales, estudiantes y curiosos que integran ChatGPT en su día a día. Finalmente, a las 6:32 PM ET (pasada la medianoche en España), llegó la esperada actualización. Según el informe de seguimiento de OpenAI, se había logrado una «recuperación completa en la API» y «casi todos los componentes de ChatGPT» volvían a funcionar con normalidad para todos los usuarios.
Sin embargo, la solución no fue total. La compañía admitió que un área seguía presentando problemas: el modo de voz de ChatGPT todavía registraba «tasas de error elevadas», un fleco que quedaba pendiente de resolver en las horas posteriores.
El efecto dominó en el ecosistema de la IA
La caída de los servicios de OpenAI demostró la profunda interconexión del sector tecnológico actual. Cuando un pilar tan fundamental como la infraestructura de OpenAI falla, las réplicas se sienten en otros lugares. El caso más notorio reportado fue el de Perplexity, un popular motor de búsqueda conversacional que utiliza algunos de los modelos de IA de OpenAI para potenciar sus respuestas.
A través de su propia página de estado, Perplexity informó de que estaban experimentando «lentitud y tasas de error elevadas«. Los problemas para esta plataforma, según confirmó Downdetector, comenzaron alrededor de las 7:00 AM ET, unas horas después de la caída inicial de OpenAI.
Este tipo de incidentes subraya la dependencia que muchas empresas, desde startups hasta grandes corporaciones, tienen de las API de gigantes como OpenAI. Una API funciona como un puente que permite que diferentes programas se comuniquen entre sí. Cuando la API de OpenAI falla, es como si se cerrara una autopista principal, afectando a todos los vehículos (aplicaciones) que dependen de ella para funcionar.
Una interrupción generalizada pero no universal
A pesar de la magnitud global del problema, es importante matizar que la interrupción no afectó a todos los usuarios por igual. En el artículo original de The Verge, la periodista Jess Weatherbed señaló que ella, al igual que otros usuarios, pudo utilizar el chatbot sin encontrar ningún problema durante el día.
Esta particularidad sugiere que, si bien la interrupción fue masiva, su impacto pudo haber sido desigual dependiendo de la región geográfica, el servidor al que se conectaba el usuario o la carga de la red en ese momento. Se trató, por tanto, de una caída parcial en su manifestación, aunque sus efectos se sintieran a escala planetaria.
La resolución del incidente devuelve la normalidad a un servicio que se ha vuelto indispensable para muchos, pero deja una reflexión sobre la fragilidad de una infraestructura digital cada vez más centralizada en unos pocos actores clave del sector de la inteligencia artificial.






