IDECanarias cuenta con un nuevo servicio de imágenes satélite que hemos denominado SENTINEL2 Super Resolution.  Las nuevas imágenes satélite publicadas se han generado partiendo de imágenes capturadas por el satélite Sentinel2  (perteneciente al proyecto europeo Copernicus) sobre las que se aplica un algoritmo basado en inteligencia artificial que mejora notablemente su resolución y por tanto su calidad visual.

En el visor de IDECanarias podemos comparar la imagen del año 2016 del Sentinel2 que no tiene ningún tratamiento y que es de 10 metros/pixel, con la nueva imagen generada del año 2017 empleando la técnica de Super-Resolution cuya resolución obtenida es de 5 metros/pixel. Podemos emplear la herramienta de doble ventana para realizar una comparativa entre ambas (pinchar aquí).

En el siguiente ejemplo se puede observar la mejora que experimentan las imágenes cuando aplicamos esta técnica, permitiendo obtener detalles de la imagen que no eran visibles en la original y permitiendo a nuestros usuarios utilizar más «zoom» para acercarse a las imágenes.

Comparativa imágenes SENTINEL2_SR

Tecnología aplicada

El problema de mejora de la resolución de imágenes se conoce como Super-Resolution y puede tener como entrada un conjunto de imágenes o una sola imagen (como en este caso). La forma clásica de abordar este problema ha sido mediante el empleo de técnicas de interpolación (interpolación bilineal, bicúbica, lanczos). Actualmente con la llegada de nuevos algoritmos de Deep Learning, con las redes neuronales artificiales correctamente entrenadas para este problema, se obtienen unos resultados muy superiores a las técnicas clásicas debido a su capacidad de contextualización, análisis y recuperación de patrones.

En este caso hemos entrenado una red neuronal profunda con 18 capas para incrementar la resolución de las imágenes del satélite Sentinel2 desde los 10 metros/pixel originales del sensor hasta los 5 metros/pixel, lo que supone multiplicar por 4 el número de pixels de la imagen resultante, mejorando la percepción y calidad visual de la misma. Esta técnica se está aplicando a los canales RGB de la imagen. Debemos tener en cuenta, no obstante, que la calidad geométrica de la imagen (error planimétrico) sigue correspondiendo con la de la imagen original.

Para los más curiosos, la forma de enseñar a una red neuronal artificial a mejorar la resolución de una imagen es tomar como partida una imagen de mejor calidad (en este caso la ortofoto regional de Canarias) y repixelarla a las resoluciones que queremos enseñar a la red. Por tanto, tomamos la ortofoto regional, la repixelamos a 5 metros/pixel y a 10 metros/pixel y entrenamos una red neuronal convolucional profunda para que aprenda cómo recuperar la resolución de una imagen degradada (la de 10m/pixel) en su imagen original de mayor resolución (5 m/pixel).

Generamos más de 200.000 patrones de muestras de todas las islas y entrenamos la red hasta que el nivel de aprendizaje fue satisfactorio, probando además diversas arquitecturas de red y parámetros. Una vez entrenada, podemos introducir las imágenes del satélite Sentinel2 de 10 metros/pixel y la red aplicará su conocimiento para tratar de restaurar la imagen hasta una resolución de salida de 5 metros/pixel.

Debemos destacar que se ha elegido una arquitectura de red que nos asegure que el resultado sea coherente con la entrada evitando la generación de detalles que no estén presentes en la información de la imagen original.

GRAFCAN continúa trabajando sobre varias líneas de investigación relacionadas con la inteligencia artificial y el territorio cuyos avances seguiremos publicando.