Expertos critican la falta de detalles de seguridad en el último informe de IA de Google

Droids

Updated on:

Expertos critican la falta de detalles de seguridad en el último informe de IA de Google

Google ha publicado recientemente un informe técnico sobre su modelo de inteligencia artificial más potente hasta la fecha, Gemini 2.5 Pro. Sin embargo, diversos expertos en el campo señalan que el documento carece de detalles cruciales sobre seguridad, lo que dificulta determinar qué riesgos podría plantear este modelo.

Un informe con carencias significativas

El jueves, varias semanas después del lanzamiento de Gemini 2.5 Pro, Google publicó un informe técnico que muestra los resultados de sus evaluaciones internas de seguridad. Según señalan varios especialistas consultados por TechCrunch, el documento es «muy escaso» y contiene «información mínima».

Una de las ausencias más notables del informe es cualquier mención al Framework de Seguridad Fronteriza (FSF) de Google. La compañía introdujo este marco el año pasado como parte de un esfuerzo para identificar futuras capacidades de IA que podrían causar «daños severos».

Además, Google aún no ha publicado un informe para Gemini 2.5 Flash, un modelo más pequeño y eficiente que la empresa anunció la semana pasada. Un portavoz de la compañía indicó a TechCrunch que dicho informe está «por venir pronto».

Reacciones de expertos en seguridad de IA

Peter Wildeford, co-fundador del Institute for AI Policy and Strategy, expresó su preocupación a TechCrunch: «Este informe es muy escaso, contiene información mínima y salió semanas después de que el modelo ya estuviera disponible para el público. Es imposible verificar si Google está cumpliendo con sus compromisos públicos y, por tanto, imposible evaluar la seguridad de sus modelos».

Thomas Woodside, co-fundador del Secure AI Project, aunque reconoce que se alegra de que Google haya publicado un informe para Gemini 2.5 Pro, no está convencido del compromiso de la empresa con las evaluaciones de seguridad complementarias oportunas. Woodside señaló que la última vez que Google publicó resultados de pruebas de capacidades peligrosas fue en junio de 2024, para un modelo anunciado en febrero de ese mismo año.

«Espero que esto sea una promesa de Google para comenzar a publicar actualizaciones más frecuentes», comentó Woodside a TechCrunch. «Esas actualizaciones deberían incluir los resultados de evaluaciones para modelos que aún no se han implementado públicamente, ya que esos modelos también podrían plantear riesgos serios».

Kevin Bankston, asesor senior sobre gobernanza de IA en el Center for Democracy and Technology, calificó esta tendencia de informes esporádicos y vagos como una «carrera hacia el fondo» en seguridad de IA.

«Combinado con informes de que laboratorios competidores como OpenAI han reducido su tiempo de pruebas de seguridad antes del lanzamiento de meses a días, esta documentación escasa para el modelo de IA más avanzado de Google cuenta una historia preocupante de una carrera hacia el fondo en seguridad y transparencia de IA mientras las empresas se apresuran a lanzar sus modelos al mercado», declaró Bankston a TechCrunch.

Una tendencia preocupante en la industria

Google no es la única empresa que ha sido acusada de proporcionar poca transparencia últimamente. Meta publicó una evaluación de seguridad igualmente escasa de sus nuevos modelos abiertos Llama 4, mientras que OpenAI optó por no publicar ningún informe para su serie GPT-4.1.

Google puede haber sido uno de los primeros laboratorios de IA en proponer informes estandarizados para modelos, pero esto no lo exime de las críticas actuales. La empresa tiene un enfoque diferente al de algunos de sus rivales, publicando informes técnicos solo una vez que considera que un modelo ha «graduado» de la etapa «experimental». Además, no incluye hallazgos de todas sus evaluaciones de «capacidades peligrosas» en estos informes; reserva esos datos para una auditoría separada.

Compromisos previos con reguladores

Lo que hace más preocupante esta situación son las garantías que Google dio previamente a los reguladores para mantener un alto estándar de pruebas de seguridad e informes. Hace dos años, Google le dijo al gobierno de EE.UU. que publicaría informes de seguridad para todos los modelos de IA públicos «significativos» «dentro del alcance».

La empresa siguió esta promesa con compromisos similares a otros países, prometiendo «proporcionar transparencia pública» en torno a los productos de IA.

Google ha declarado en comunicados que, aunque no se detalla en sus informes técnicos, realiza pruebas de seguridad y «red teaming adversarial» para los modelos antes de su lanzamiento. Sin embargo, los expertos consideran que estas declaraciones no son suficientes sin la correspondiente transparencia.

El valor de los informes técnicos

Es importante destacar que los informes técnicos proporcionan información útil —y a veces poco halagadora— que las empresas no siempre publicitan ampliamente sobre su IA. En general, la comunidad de IA ve estos informes como esfuerzos de buena fe para apoyar la investigación independiente y las evaluaciones de seguridad.

Sin embargo, cuando estos informes carecen de detalles esenciales o se publican con retraso, pierden gran parte de su valor como herramientas de transparencia y rendición de cuentas.

La situación actual ilustra la tensión entre la rápida comercialización de modelos de IA cada vez más potentes y la necesidad de garantizar que estos sistemas sean seguros y no planteen riesgos significativos para la sociedad. A medida que los modelos de IA se vuelven más capaces, la transparencia en torno a sus capacidades, limitaciones y posibles riesgos se vuelve aún más crucial.

Mientras tanto, los usuarios y reguladores dependen de estos informes para tomar decisiones informadas sobre el uso y la regulación de estos sistemas, lo que hace que su calidad y exhaustividad sean de vital importancia para el desarrollo responsable de la IA.

Deja un comentario