Google se enfrenta a un nuevo problema con su inteligencia artificial después de que usuarios descubrieran que su sistema está fabricando explicaciones completamente ficticias para refranes y dichos populares que nunca han existido. Este curioso fallo ha provocado respuestas elaboradas y detalladas sobre expresiones inventadas, poniendo en evidencia las limitaciones actuales de los sistemas de IA.
El descubrimiento de las «alucinaciones» de la IA
La autora Meaghan Wilson-Anastasios fue quien primero detectó este extraño comportamiento y lo compartió en Threads durante el pasado fin de semana. Wilson-Anastasios descubrió que al buscar el «significado» de una frase sin sentido como «tacones de plataforma de mantequilla de cacahuete», la función AI Overviews de Google sugería que se trataba de una «referencia a un experimento científico» en el que «se utilizó mantequilla de cacahuete para demostrar la creación de diamantes bajo alta presión».
El fenómeno no es un caso aislado. Según informa Futurism, cuando se busca el significado de «No puedes lamer un tejón dos veces» —una expresión completamente inventada—, la IA de Google proporciona una explicación convincente: «El modismo ‘no puedes lamer un tejón dos veces’ significa que no puedes engañar o engañar a alguien por segunda vez después de que ya haya sido engañado una vez. Es una advertencia de que si alguien ya ha sido engañado, es poco probable que caiga en el mismo truco nuevamente».
Otros ejemplos incluyen la expresión inventada «nunca laves un conejo en una col», para la que la IA explicó detalladamente que es «una forma humorística de decir que bañar a los conejos es innecesario y potencialmente perjudicial», añadiendo incluso que «los conejos son animales naturalmente limpios».
La IA llegó incluso a interpretar la frase sin sentido «la bicicleta come primero» como un «modismo humorístico» y una «forma lúdica de decir que uno debe priorizar su nutrición, particularmente los carbohidratos, para apoyar sus esfuerzos de ciclismo».
Un problema recurrente en los sistemas de IA
Este comportamiento ilustra perfectamente uno de los mayores fallos de los sistemas de inteligencia artificial actuales: las llamadas «alucinaciones». Este término técnico se refiere a la tendencia de los modelos de lenguaje a generar información completamente falsa pero presentada con absoluta confianza, como si fuera un hecho verificado.
Los modelos de IA basados en grandes modelos de lenguaje tienen un largo historial de problemas relacionados con la invención de hechos e incluso de convencer a los usuarios de que están equivocados cuando en realidad es la IA la que está fabricando información.
Según señala Futurism, incluso los modelos de razonamiento más recientes de OpenAI, denominados o3 y o4-mini, tienden a alucinar incluso más que sus predecesores, lo que demuestra que la empresa está avanzando en la dirección equivocada en este aspecto.
La función AI Overviews de Google no es nueva en este tipo de controversias. Desde su lanzamiento en mayo de 2023, ha protagonizado episodios vergonzosos, como cuando afirmó que el pegamento pertenece a la pizza para garantizar que los ingredientes no se deslicen, o cuando aseguró que los elefantes bebés son lo suficientemente pequeños como para sentarse en la palma de la mano humana.
Google expande la función a pesar de los problemas
Lo más preocupante es que, a pesar de estos fallos recurrentes, Google está ampliando el alcance de esta función. El mes pasado, la compañía anunció que estaba «expandiendo» AI Overviews en Estados Unidos para «ayudar con preguntas más difíciles, comenzando con programación, matemáticas avanzadas y consultas multimodales».
Más alarmante aún, a principios de este año Google anunció que AI Overviews incluso está siendo utilizado para proporcionar consejos médicos, una área donde la precisión de la información es absolutamente crítica.
Estas decisiones resultan especialmente controvertidas si tenemos en cuenta que, casi un año después del lanzamiento del producto, la IA sigue inventando explicaciones para frases sin sentido.
Además, según un informe de Search Engine Land, esta función está perjudicando a los sitios web al limitar las tasas de clics hacia los listados orgánicos tradicionales. Es decir, además de difundir información falsa, los AI Overviews de Google están socavando el modelo de negocio de innumerables sitios web que albergan información confiable.
La respuesta de Google y el futuro
Tras la indignación pública por la inexactitud desconcertante —y a menudo cómica— de la función, Google admitió en un comunicado el año pasado que «ciertamente aparecieron algunos AI Overviews extraños, inexactos o inútiles».
Para abordar el problema, Google inició un juego masivo del gato y el ratón, limitando algunas respuestas cuando detectaba «consultas sin sentido que no deberían mostrar un AI Overview». Sin embargo, considerando los modismos ficticios casi un año después del lanzamiento del producto, está claro que Google todavía tiene mucho trabajo por hacer.
La compañía afirma que los «usuarios avanzados» quieren «respuestas de IA para aún más de sus búsquedas», aunque por el momento existen formas de desactivar la función para quienes prefieran no utilizarla.
Curiosamente, el propio modelo de IA parece ser consciente de sus limitaciones. Cuando un usuario de Bluesky preguntó por un refrán inventado, la IA de Google respondió: «El dicho ‘puedes llevar a una IA a responder, pero no puedes hacer que piense’ destaca la diferencia clave entre la capacidad de la IA para proporcionar información y su falta de comprensión real o pensamiento independiente».
Esta situación pone de manifiesto los importantes desafíos que aún existen en el desarrollo de la IA y la necesidad de sistemas más robustos que puedan distinguir entre información real y ficticia, especialmente cuando estas tecnologías se utilizan cada vez más como fuentes primarias de información para millones de personas.






