La nueva tendencia viral en ChatGPT: identificar ubicaciones exactas a partir de fotografías

Droids

Updated on:

La nueva tendencia viral en ChatGPT: identificar ubicaciones exactas a partir de fotografías

Un nuevo fenómeno está causando revuelo en redes sociales: los usuarios están utilizando ChatGPT para identificar con precisión dónde se tomaron fotografías, incluso cuando éstas carecen de información geográfica. Esta tendencia, conocida como «búsqueda inversa de ubicación», despierta preocupaciones sobre la privacidad en la era de la inteligencia artificial.

Los nuevos modelos de OpenAI revolucionan el análisis de imágenes

Esta semana, OpenAI lanzó sus nuevos modelos de inteligencia artificial, o3 y o4-mini, que poseen capacidades únicas para «razonar» a través de imágenes subidas. Según informa TechCrunch, estos modelos pueden analizar fotografías detalladamente, incluso si están borrosas o distorsionadas.

En la práctica, los modelos pueden recortar, rotar y hacer zoom en las fotos para analizarlas minuciosamente. Estas capacidades de análisis de imágenes, combinadas con su habilidad para buscar en la web, convierten a estos sistemas en potentes herramientas para encontrar ubicaciones específicas.

«Hay una tendencia algo preocupante que se está volviendo viral: las personas están usando ChatGPT para averiguar la ubicación mostrada en las imágenes», señala el artículo de TechCrunch.

La viralización de la búsqueda inversa de ubicaciones

Los usuarios de X (antes Twitter) rápidamente descubrieron que o3, en particular, es extremadamente eficaz para deducir ciudades, monumentos e incluso restaurantes y bares a partir de pistas visuales sutiles.

La red social X está llena de ejemplos de usuarios que proporcionan a ChatGPT menús de restaurantes, instantáneas de vecindarios, fachadas de edificios y autorretratos, indicando a o3 que imagine que está jugando a «GeoGuessr», un juego en línea que desafía a los jugadores a adivinar ubicaciones a partir de imágenes de Google Street View.

Un usuario llamado Ethan Mollick compartió en X cómo subió una foto sin información de ubicación y simplemente pidió «geoguess this» (adivina esta ubicación). El modelo identificó correctamente el lugar, demostrando su impresionante capacidad de análisis geográfico.

Otro usuario, bajo el nombre Yumi, publicó que pidió a un amigo una foto aleatoria tomada en una biblioteca, y o3 logró identificarla en apenas 20 segundos, acertando con precisión.

Implicaciones preocupantes para la privacidad

Esta funcionalidad plantea evidentes problemas de privacidad. Nada impide que alguien malintencionado tome capturas de pantalla, por ejemplo, de las historias de Instagram de una persona, y utilice ChatGPT para intentar localizarla.

«Es un problema potencial de privacidad obvio», señala el artículo. «No hay nada que impida a un actor malicioso hacer capturas de pantalla, por ejemplo, de la historia de Instagram de una persona y usar ChatGPT para intentar doxxearla».

Sorprendentemente, OpenAI no aborda esta cuestión en su informe de seguridad para o3 y o4-mini, lo que añade otra capa de preocupación sobre cómo se están gestionando los riesgos asociados con estas nuevas capacidades.

Precisión y limitaciones de la tecnología

En un interesante experimento, TechCrunch probó varias fotos con o3 y un modelo anterior sin capacidades de razonamiento de imágenes, GPT-4o, para comparar sus habilidades de adivinación de ubicaciones. Sorprendentemente, GPT-4o llegó a la misma respuesta correcta que o3 con mayor frecuencia de lo esperado y en menos tiempo.

Sin embargo, hubo al menos un caso durante las pruebas en que o3 encontró un lugar que GPT-4o no pudo identificar. Cuando se le mostró una cabeza de rinoceronte púrpura montada en un bar con poca luz, o3 respondió correctamente que era de un speakeasy en Williamsburg, y no un pub del Reino Unido como había supuesto GPT-4o.

Esto no significa que o3 sea infalible. Varias de las pruebas realizadas por TechCrunch fracasaron: o3 se quedó atascado en un bucle, incapaz de llegar a una respuesta con confianza razonable, o proporcionó una ubicación incorrecta. Usuarios en X también señalaron que o3 puede estar bastante lejos en sus deducciones de ubicación.

Un avance tecnológico con escasas salvaguardas

La tendencia ilustra algunos de los riesgos emergentes que presentan los modelos de IA más capaces y con razonamiento. Parece haber pocas salvaguardas en ChatGPT para prevenir este tipo de «búsqueda inversa de ubicación», y OpenAI no aborda el problema en su informe de seguridad para o3 y o4-mini.

TechCrunch indica que se ha puesto en contacto con OpenAI para obtener comentarios sobre este tema, pero hasta el momento del artículo, la empresa no había respondido.

Es importante destacar que esta capacidad podía realizarse incluso antes del lanzamiento de o3 y o4-mini, aunque los nuevos modelos parecen hacerlo con mayor precisión en ciertos escenarios.

¿El futuro de la privacidad en riesgo?

Esta nueva tendencia nos hace cuestionar los límites entre la innovación tecnológica y la privacidad personal. La capacidad de identificar ubicaciones precisas a partir de fotografías comunes podría tener aplicaciones legítimas, como ayudar a personas a recordar dónde tomaron una foto o asistir en investigaciones. Sin embargo, también abre la puerta a usos más problemáticos.

A medida que estas herramientas se vuelven más accesibles y precisas, resulta fundamental que las empresas de IA implementen salvaguardas adecuadas y que los usuarios sean conscientes de los riesgos asociados a las imágenes que comparten en línea.

Por ahora, no parece haber restricciones significativas en el uso de esta funcionalidad, lo que plantea importantes preguntas sobre cómo equilibraremos la fascinante evolución de la inteligencia artificial con la protección de nuestra privacidad en los próximos años.

Deja un comentario