spot_img

ChatGPT es capaz de aproximar la ubicación de una fotografía

Análisis

LISA News
LISA News
Contenido creado por el Equipo de Redacción de LISA News con el apoyo del equipo docente de LISA Institute.

Los nuevos modelos de razonamiento OpenAI o3 y o4-mini son capaces de identificar la ubicación exacta en la que se ha realizado una fotografía.

Los modelos o3 y o4-mini de ChatGPT, desarrollados por OpenAI, han demostrado su capacidad para aproximar la ubicación geográfica de una fotografía solo a partir de su análisis visual. Esta función, disponible en la versión más avanzada del sistema de inteligencia artificial, permite cargar una imagen y recibir una respuesta detallada sobre las características del entorno, la arquitectura o la vegetación presentes, junto con una estimación razonada del lugar donde podría haberse tomado la fotografía.

➡️ Te puede interesar: Inteligencia de imágenes (IMINT): misión, función y salidas profesionales

La tecnología de ambos modelos aplican técnicas de visión por ordenador y aprendizaje profundo para examinar elementos visuales distintivos. También incluye el comportamiento autónomo y la capacidad de pensar con imágenes, capaz de aprender el contenido de una imagen e incluir la información en su razonamiento. Por ejemplo, puede identificar monumentos conocidos, estilos arquitectónicos, señales de tráfico, flora local e incluso patrones climáticos reflejados en la imagen. A través de esta combinación de pistas, el modelo elabora hipótesis detalladas sobre la región, el país o la ciudad de origen de la fotografía, aunque no siempre acierta con precisión absoluta.

En pruebas realizadas por usuarios y desarrolladores, estos modelos han logrado aproximar ubicaciones que van desde entornos urbanos a paisajes rurales, describiendo las características visibles y asociándolas a posibles regiones del mundo. Además, esta capacidad resulta especialmente notable cuando la imagen presenta detalles culturales, textuales o naturales fácilmente relacionables con zonas geográficas específicas. No obstante, la precisión varía según la claridad de los elementos presentes y la familiaridad del modelo con escenarios internacionales.

Por otra parte, estos modelos de razonamiento no acceden a metadatos de la imagen ni a información GPS, por lo que su análisis depende únicamente de lo que es visible en la fotografía. El sistema explica sus deducciones paso a paso, especificando qué pistas le han llevado a proponer una localización aproximada. Aunque esto no sustituye a herramientas de geolocalización profesional ni a técnicas como el IMINT, este avance representa un ejemplo de cómo la IA puede interpretar y contextualizar contenido visual basándose en su entrenamiento y a grandes conjuntos de datos previos.

➡️ Si quieres adquirir conocimientos sobre Inteligencia, te recomendamos los siguientes cursos formativos de LISA Institute:

Artículos relacionados

Masterclass y eventos relacionados

Formación relacionada

spot_img

Actualidad

Dejar respuesta:

Por favor, introduce tu comentario!
Introduce tu nombre aquí

spot_img