WhatsApp Image 2025-03-10 at 16.51.08.jpeg
18 de marzo de 2025

DO dictó charla sobre herramientas de deep y machine learning geoespacial en encuentro Khipu AI

En el contexto de "Khipu AI", uno de los encuentros de inteligencia artificial más importantes de Latinoamérica, realizado esta vez en Santiago, principalmente en las dependencias de la Facultad de Economía y Administración UC; Data Observatory realizó un taller sobre herramientas de deep y machine learning para datos geoespaciales, a cargo de Álvaro Paredes, ingeniero data scientist de DO. La actividad también contó con la participación de Mauricio Caroca y Alejandro Antilao, ingenieros de Data Observatory.

Durante la jornada inaugural, también participaron Jocelyn Dunstan, académica del Instituto de Matemática y Computación UC (IMC); Luciana Benotti, de la Universidad Nacional de Córdoba; José Miguel Sánchez, decano de la Facultad de Economía y Administración UC, y Pedro Bouchon, vicerrector de investigación de la UC.

"Fue una exposición muy provechosa que exigió un intenso trabajo previo del equipo de DO en cuanto a la preparación y tratamiento de los datos para su posterior uso en el taller práctico. Nos basamos en la experiencia del proyecto Deep Learning INDABA (África), que cuenta con una amplia experiencia en el estudio del territorio. En nuestro caso, utilizamos datos del Land Cover MapBiomas del 2018 para simular puntos de entrenamiento, dada la falta de datos abiertos desagregados en nuestro país. Luego con estos datos de muestreo, reconstruimos el land cover a través de dos modelos: uno de Machine Learning y otro de Deep Learning", explicó Paredes.

El evento congregó a más de 400 asistentes, principalmente alumnos de pre y posgrado e investigadores académicos, involucrados en el estudio y la aplicación de la IA y la ciencia de datos. Dado el perfil de la audiencia, se abordaron contenidos teóricos y se realizó una demostración práctica.

"La idea era mostrar cómo, aplicando estos modelos, se pueden clasificar unidades en una imagen. Este ejercicio es replicable en cualquier campo que utilice imágenes y que necesite clasificar/separar cosas en la imagen (muy distinto a reconocer objetos en una imagen), ya sea Tierra y Espacio, medicina, en el monitoreo del medioambiente, de recursos marinos y de desastres naturales. Este tipo de herramientas basadas en ciencia de datos no es una tecnología abstracta, sino tecnología útil para la toma de decisiones, para la investigación científica y para el desarrollo de políticas públicas", agregó el expositor.

Por su parte, Mauricio Caroca, ingeniero data scientist de Data Observatory, añadió: “Los datos geoespaciales poseen componentes extras en relación a otros conjuntos de datos, tales como el sistema de referencia de coordenadas, resolución espacial o temporal, la geometría de un vector, entre otros. Es primordial conocer estos componentes si se trabaja con datos geoespaciales, de lo contrario, pueden producirse errores de interpretación en los resultados al aplicar métodos de machine learning o deep learning. Por este motivo dedicamos la primera parte del taller a enseñar estos componentes extras a los asistentes”.

En el mismo sentido, Alejandro Antilao, ingeniero back-end de Data Observatory, comentó que “estas tecnologías son clave para clasificar grandes volúmenes de imágenes, lo que a su vez facilita la creación de políticas públicas fundamentadas en datos reales”. También mencionó que estas herramientas se pueden replicar desde cualquier ordenador que cuente con una GPU. Y si eso no es posible, la nube se convierte en una opción fantástica para escalar y procesar grandes cantidades de datos de manera eficiente y flexible, adaptándose a las necesidades específicas de cada proyecto.

Para los expertos del DO, es crucial el desarrollo del capital humano especializado en el uso de este tipo de herramientas. "Hoy en día hay un gran flujo de información geoespacial, sobre todo de imágenes satelitales, que va creciendo de manera exponencial. La cantidad de sensores remotos que hay orbitando, prácticamente duplica la cantidad de hace cuatro o cinco años. Entonces, aprender técnicas que permitan manejar un volumen más considerable de datos, y poder hacer algo con ellos, hacer inferencias, para transformarlo en información, yo creo que es una realidad cada vez más accesible. Trabajar manualmente con estos datos ya está obsoleto y es importante incorporar herramientas de programación y automatización a toda escala. El uso de IA se hace cada vez más masivo e intensivo, pero es imperativo poder tener buenos datos (en cantidad y calidad) para alimentar esos modelos, y en eso justamente es en lo que estamos enfocando nuestros esfuerzos en Data Observatory." concluyó Álvaro Paredes.