La inteligencia artificial de Google descubre 20 fallos de seguridad en software de código abierto de uso masivo

Droids

Updated on:

Una nueva herramienta de inteligencia artificial desarrollada por Google DeepMind ha identificado con éxito 20 vulnerabilidades de seguridad en algunas de las bibliotecas de software de código abierto más utilizadas del mundo. Este avance, que combina técnicas de análisis de programas con la potencia de los Modelos Lingüísticos Grandes (LLM), demuestra el creciente potencial de la IA como un aliado fundamental en la protección de la infraestructura digital global.

Los hallazgos, detallados en una publicación de Google, no solo han permitido corregir fallos que podrían haber sido explotados por ciberdelincuentes, sino que también abren una nueva vía para la detección automática y eficiente de errores de software.

Un «cazador de errores» que aprende del código

La herramienta de Google es una versión avanzada de un tipo de software conocido como «fuzzer». Tradicionalmente, un fuzzer funciona como un probador de estrés automático: bombardea un programa con una gran cantidad de datos aleatorios o malformados con la esperanza de que uno de ellos provoque un fallo o un comportamiento inesperado. Si el programa se bloquea, es una señal de que existe un error (o «bug») que podría ser una vulnerabilidad de seguridad.

Sin embargo, el enfoque de Google es mucho más sofisticado. En lugar de usar datos al azar, su fuzzer está impulsado por un Modelo Lingüístico Grande, la misma tecnología que está detrás de sistemas como ChatGPT o Gemini. Este LLM no se limita a generar datos sin sentido; primero analiza el código fuente del programa que está probando. Al «entender» la lógica y la estructura del código, la IA es capaz de generar entradas de datos mucho más específicas y dirigidas, diseñadas inteligentemente para explotar las debilidades que ha identificado.

«Nuestro enfoque trata el fuzzing como un problema de generación de ‘código en el bucle'», explica Daniel M. Kan, científico investigador de Google DeepMind y autor principal del artículo técnico sobre el proyecto. «El LLM interactúa iterativamente con el programa objetivo, observando su comportamiento y utilizando esa información para generar entradas más efectivas». Este ciclo de análisis, prueba y aprendizaje continuo hace que la herramienta sea excepcionalmente eficaz para descubrir fallos complejos que los fuzzers tradicionales pasarían por alto.

Hallazgos críticos en bibliotecas fundamentales

Los resultados de este cazador de errores inteligente son notables. La herramienta de IA de Google analizó varias bibliotecas de código abierto escritas en los lenguajes de programación C y C++, que son la base de innumerables aplicaciones. En total, se identificaron 20 vulnerabilidades distintas.

Lo más significativo es que 12 de estos fallos eran completamente desconocidos hasta ese momento, lo que en la jerga de ciberseguridad se conoce como «zero-days» (días cero). Otros cinco ya habían sido descubiertos previamente y tres eran duplicados de otros hallazgos del propio sistema.

Los errores se encontraron en proyectos de una importancia crítica, entre los que destacan:

  • libpng: Una biblioteca utilizada globalmente para procesar imágenes en formato PNG. Un fallo aquí podría afectar a navegadores web, editores de imágenes y cualquier software que muestre este tipo de archivo.
  • libxml2: Una biblioteca esencial para leer y analizar documentos XML, un formato de datos fundamental para la web y miles de aplicaciones empresariales.

La gravedad de estos errores varía. Algunos podrían provocar ataques de denegación de servicio (DoS), donde un atacante envía un archivo malicioso que bloquea por completo la aplicación que intenta procesarlo. Otros fallos podrían permitir fugas de información sensible. En los escenarios más graves, una vulnerabilidad podría conducir a la ejecución remota de código (RCE), el santo grial de los ciberataques, que permitiría a un actor malicioso tomar el control del sistema de la víctima.

Divulgación responsable y recompensas

Fiel a las prácticas éticas de la industria, Google no hizo públicos los detalles de las vulnerabilidades de inmediato. En su lugar, aplicó un protocolo de divulgación responsable. Esto implica contactar de forma privada a los mantenedores y desarrolladores de los proyectos de código abierto afectados, proporcionándoles toda la información necesaria para que pudieran crear y distribuir un parche que solucionara el problema. Solo una vez que las correcciones estuvieron disponibles, Google compartió sus hallazgos públicamente.

Además, como incentivo y reconocimiento al trabajo de asegurar el ecosistema de código abierto, Google pagó un total de 57.000 dólares (aproximadamente 53.000 euros) en recompensas a través de su Programa de Recompensas por Vulnerabilidades de Código Abierto (OSVRP, por sus siglas en inglés).

El futuro de la ciberseguridad impulsado por la IA

Este logro de Google DeepMind no es un hecho aislado, sino una clara señal de la dirección que está tomando la ciberseguridad. La complejidad del software moderno hace que sea prácticamente imposible para los humanos revisar cada línea de código en busca de errores. Herramientas como este fuzzer con IA no buscan reemplazar a los expertos en seguridad, sino aumentar sus capacidades.

Al automatizar las tareas más tediosas y repetitivas de la búsqueda de vulnerabilidades, la inteligencia artificial permite que los profesionales se concentren en los problemas más complejos y en la arquitectura de sistemas más seguros. Para un mundo cada vez más dependiente del software de código abierto, contar con guardianes digitales capaces de aprender y adaptarse es una de las mejores defensas contra las amenazas del futuro.