La abrupta destitución y posterior restitución de Sam Altman como consejero delegado de OpenAI a finales de 2023 dejó al mundo tecnológico con más preguntas que respuestas. Ahora, meses después de aquel terremoto corporativo, una de sus protagonistas, la exmiembro de la junta directiva Helen Toner, ha roto su silencio. Sus declaraciones no solo desvelan una profunda crisis de confianza en la cúpula de la empresa líder en inteligencia artificial, sino que también lanzan un serio aviso sobre los peligros de dejar el futuro de esta tecnología en manos de empresas sin una supervisión externa y rigurosa.
Una crisis de confianza en la cima de la IA
Para entender el alcance de las nuevas revelaciones, es necesario recordar los cinco días de noviembre de 2023 que sacudieron Silicon Valley. El día 17, la junta directiva de OpenAI, la organización sin ánimo de lucro que supervisa a la empresa, anunció el despido de su carismático líder, Sam Altman. El comunicado oficial fue escueto pero contundente: Altman «no fue consistentemente sincero en sus comunicaciones con la junta, obstaculizando su capacidad para ejercer sus responsabilidades».
Lo que siguió fue un caos sin precedentes. La práctica totalidad de los más de 700 empleados de la compañía firmaron una carta en la que amenazaban con renunciar en masa y unirse a Microsoft si la junta no dimitía y Altman no era restituido. Microsoft, que ha invertido en OpenAI más de 13.000 millones de dólares (unos 12.000 millones de euros), movió ficha rápidamente. Su CEO, Satya Nadella, ofreció públicamente a Altman y a sus aliados un nuevo laboratorio de investigación dentro de su compañía. La presión fue insostenible. En menos de una semana, la junta que había despedido a Altman claudicó. Sam Altman volvió a ser CEO, y se formó una nueva junta directiva inicial, liderada por figuras como Bret Taylor y Larry Summers, percibidas como más alineadas con los intereses comerciales de la empresa. Helen Toner y sus compañeros de la antigua junta quedaron fuera.
«Nos enteramos de ChatGPT por Twitter»
Hasta ahora, los motivos exactos de esa pérdida de confianza habían sido objeto de especulación. Sin embargo, en una reciente entrevista en el podcast «Hard Fork» del New York Times, Helen Toner ha detallado una serie de incidentes que, según ella, hicieron imposible que la junta cumpliera con su deber.
Uno de los ejemplos más llamativos fue el lanzamiento de ChatGPT en noviembre de 2022, el producto que catapultó a OpenAI a la fama mundial. «Cuando salió ChatGPT, la junta no fue informada de antemano. Nos enteramos de ChatGPT por Twitter», afirmó Toner. Este hecho, según ella, no fue un descuido aislado, sino parte de un patrón.
Toner acusó a Altman de haberles proporcionado información «inexacta sobre los procesos de seguridad de la empresa en varias ocasiones», lo que dificultaba enormemente su labor de supervisión. Además, la junta descubrió que Altman no les había comunicado que él era el propietario del OpenAI Startup Fund, un fondo de inversión asociado a la compañía, lo que representaba un claro conflicto de intereses.
La situación se agravó cuando dos altos ejecutivos, preocupados por el comportamiento de Altman, acudieron a la junta. Según Toner, estos ejecutivos presentaron documentación escrita en la que detallaban sus experiencias, acusando a Altman de «mentir y manipular» y de crear un ambiente de «abuso psicológico». Para la junta, estas acusaciones fueron la gota que colmó el vaso.
Seguridad para la humanidad vs. beneficios para los inversores
La controversia va más allá de un simple conflicto de personalidades. En el centro del debate se encuentra la misión fundacional de OpenAI. La junta directiva original operaba bajo un mandato claro: garantizar que el desarrollo de la Inteligencia Artificial General (IGA) —un tipo de IA hipotética con capacidades cognitivas humanas— se realizara de forma segura y beneficiara a toda la humanidad. Su principal responsabilidad no era con los inversores, sino con esa misión.
Las revelaciones de Toner sugieren que la junta sintió que el enfoque cada vez más comercial y acelerado de Altman ponía en riesgo este objetivo primordial. La presión por lanzar productos, conseguir financiación y ganar la carrera de la IA estaba, a su juicio, eclipsando las precauciones de seguridad necesarias. La restitución de Altman con una nueva junta, más favorable a sus intereses y a los de Microsoft, es vista por críticos como Toner como la culminación de la toma de control de la misión por parte del negocio.
«La autorregulación no es suficiente»
Lejos de querer reabrir viejas heridas, el objetivo de Toner y su excompañera de junta, Tasha McCauley, es alertar a la sociedad. En un contundente artículo de opinión publicado en The Economist, ambas argumentan que la crisis de gobernanza en OpenAI demuestra que la autorregulación de las empresas de IA es una quimera. «No podemos esperar que una empresa como esta se regule a sí misma», escribieron.
Su propuesta es clara: es imperativo que los gobiernos intervengan y creen organismos de supervisión independientes, con capacidad para auditar a estas compañías y aplicar normativas estrictas. Sostienen que tecnologías tan potentes no pueden estar bajo el control de líderes en quienes una junta independiente ha perdido la confianza, especialmente cuando los incentivos comerciales apuntan a un desarrollo cada vez más rápido.
La historia de los «Archivos OpenAI», como algunos ya la denominan, ha dejado de ser una lucha de poder interna para convertirse en un caso de estudio sobre el mayor desafío tecnológico de nuestro tiempo. La pregunta que queda en el aire es si la sociedad tomará nota del aviso antes de que sea demasiado tarde.