Accesos directos a las distintas zonas del curso
Ir a los contenidos
Ir a menú navegación principal
Ir a menú pie de página
Subject code : 61014134
Este tema introductorio revisa el desarrollo de la teledetección desde el punto de vista del progreso en las técnicas de observación, registro de la información, procesamiento y transmisión de ésta.
Las técnicas de observación evolucionaron con la adquisición de altura, para aumentar el área de visión, y con la mejora de la óptica. El registro de la información evolucionó desde la simple observación visual, hasta la fotografía analógica y, posteriormente, los detectores electrónicos. La transmisión de la información evolucionó desde las señales acústicas, luminosas o los mensajes escritos, hasta la transmisión de datos analógicos por radio y su posterior transmisión digital. El procesamiento de la información evolucionó desde la interpretación visual in situ, a la mejora e interpretación de fotografías, al procesamiento digital y la aplicación de métodos de inteligencia artificial.
Este tema trata de los soportes desde los que se lleva a cabo la teledetección. Como se mencionó en el tema sobre la historia de la teledetección, las plataformas de observación han evolucionado históricamente llegando cada vez más alto: desde puntos accesibles a pie sobre el terreno, hasta las órbitas geostacionarias de los satélites meteorológicos (por no mencionar los satélites de exploración planetaria, que también llevan a cabo teledetección). En este capítulo se tratan estos diferentes puntos de vista.
El punto de vista más próximo es nuestra propia mano o un trípode sosteniendo una cámara de fotografía. Ésta sencilla plataforma permite examinar dos de los problemas comunes a todas las plataformas: su orientación y su distancia respecto al objeto remoto que se quiere estudiar. El siguiente paso en altura son las plataformas aerotransportadas. Los aviones ligeros son los más utilizados para adquirir datos de alto detalle (por su poca altura) en fechas programadas y bajo condiciones, hasta cierto punto, controladas. Los aviones presentan el problema de la altura de vuelo y el movimiento (de cabeceo, alabeo y guiñada), que se vuelve a traducir en un problema de distancias y ángulos. Un paso más allá es la teledetección satelital (la más habitual en la actualidad). Los satélites artificiales se mantienen en órbitas alrededor de la Tierra, caracterizadas por su altura e inclinación, que determinan el tiempo de visita. En la actualidad existen diferentes programas espaciales de observación de la Tierra, entre los que se encuentran los de la ESA y la NASA, pero también los de otras agencias nacionales y privadas. Cada programa tiene unos objetivos y unas políticas de distribución de datos, que conviene conocer para escoger los más adecuados.
Este tema trata de las formas de medir remotamente, tanto de los conceptos físicos involucrados como de los instrumentos empleados.
El tema comienza con un repaso a qué es un proceso de medida y de qué forma se asigna un valor numérico a una magnitud; en particular se trata el importante tema de la calibración de una medida y del origen y tratamiento de los errores asociados a ella.
Las medidas más sencillas son las geométricas (distancias y ángulos); estas medidas geométricas permiten, por ejemplo, la generación de modelos digitales de terreno a partir de pares estereoscópicos de imágenes ópticas. Las medidas de radiometría óptica permiten determinar la composición de una cubierta basándose en los pigmentos de la misma que absorben la luz solar. En un sensor se divide la luz en sus componentes (en “colores”) mediante un analizador y posteriormente se cuantifica la cantidad de luz en cada uno. Los instrumentos para registrar estas medidas han evolucionado desde las primitivas películas fotográficas a los últimos sensores CCD y CMOS. Otros tipos de sensores emplean otros rangos del espectro electromagnético (diferentes del rango óptico) para realizar otras medidas: temperatura, distancia, etc.
Los sensores usados en teledetección se pueden clasificar de varias maneras. En función del rango del espectro electromagnético que usen, existen sensores ópticos, sensores térmicos, sensores de microondas y radar.
En función del origen de la energía electromagnética, existen sensores pasivos que recogen la luz reflejada del sol (prácticamente todos los sensores ópticos), o la energía emitida por los objetos debido a su temperatura, y sensores activos, como el radar, que recibe ecos de los pulsos de radiofrecuencia emitidos por el propio sensor. En función del análisis que realizan de la luz que les llega, pueden ser multiespectrales (analizan unas pocas bandas o colores del espectro electromagnético) o hiperespectrales (que miden a casi todas las longitudes de onda dentro del rango analizado).
En la actualidad existen numerosos sensores satelitales y aerotransportados. Los de mayor interés son los dedicados por las agencias NASA y ESA a la observación ambiental y los satélites meteorológicos. Las características de estos sensores (sus bandas, su resolución espacial, el tamaño de las imágenes que adquieren, etc.) están diseñadas en función de sus objetivos, y con criterios que tienen en cuenta el equilibrio entre la cantidad y la calidad de la información obtenida con las tecnologías disponibles en el momento de su puesta en funcionamiento. Muchas imágenes de estos sensores son proporcionadas gratuitamente por las agencias que las han adquirido, con fines educativos, de investigación, o simplemente de promoción.
El sensor de referencia con el que se comparan las observaciones de todos los demás es el espectrorradiómetro de campo, con el que se mide directamente (en el campo) la luz que reflejan los cuerpos que se quieren estudiar. El realizar una medida detallada in situ sirve para calibrar las medidas remotas, para disponer de bibliotecas de espectros conocidos y para verificar sobre el terreno las medidas de un sensor. Además, a partir de las medidas detalladas de un radiómetro de campo es posible simular las medidas realizadas por un sensor óptico a bordo de un avión o un satélite. Por ello es importante familiarizarse con el uso de este dispositivo, tanto en campo, como en laboratorio.
El concepto de imagen es un concepto intuitivo, tanto como el de una fotografía, con las que estamos familiarizados. Por eso, para comprender qué es una imagen digital, cómo se forma, cómo se adquiere, cómo se almacena, cómo se manipula y cómo se interpreta, el camino más directo es empezar con un sensor multiespectral casero: una cámara fotográfica digital.
Cuando se adquiere una imagen con una cámara digital, se han ajustado en ésta múltiples parámetros de funcionamiento: la óptica (la distancia focal del objetivo), la velocidad (la sensibilidad y el tiempo de exposición), la fuente de luz (ambiente o con flash), el campo de visión (a través del zoom), la resolución (a través de la calidad de imagen o del “tamaño” de ésta), etc. Es fácil ver la relación entre estos parámetros y algunas propiedades de un sensor a bordo de un satélite. Igual que las imágenes de satélite, las imágenes de una cámara digital se guardan en ficheros informáticos codificados que optimizan la relación entre calidad de los datos y almacenamiento (en el caso de una cámara de aficcionado, a menudo, se optimiza el espacio y la velocidad de almacenamiento en detrimento de la calidad). E igual que las imágenes de satélite, las imágenes de la cámara fotográfica se guardan con información sobre cómo fueron adquiridas, en forma de metadatos. Por último, los programas de retoque fotográfico permiten visualizar y destacar cualidades de la imagen fotográfica que nos ayudan a interpretarla: lo mismo se hará con las imágenes de teledetección.
En el tema anterior se vio cómo la imagen intuitiva se convertía en una matriz de píxeles con unos atributos dados (brillo o color) que se podían manipular. La forma concreta de hacer esto es tratando las imágenes como conjuntos de datos numéricos.
Las operaciones más sencillas son las operaciones aritméticas aplicadas a los valores de los píxeles de la imagen: suma (o resta) de un valor y multiplicación por otro valor resultan ser las operaciones de cambio de brillo y de contraste de la imagen. Un paso más allá es llevar a cabo estas operaciones de suma y producto entre los propios píxeles de dos imágenes con las mismas dimensiones (dos bandas de una imagen multiespectral). E igual que se pueden llevar a cabo estas operaciones, es posible aplicar funciones especiales que destaquen algunas características de las imágenes; por ejemplo, calcular el cuadrado o el logaritmo de los valores de los píxeles. Estas transformaciones que se reducen a aplicar la misma operación a cada píxel se denominan transformaciones globales. Algunas transformaciones globales importantes son aquellas que se determinan a partir de los valores de los propios píxeles de la imagen, como la ecualización del histograma (una transformación no lineal de una banda, basada en la distribución estadística de los valores de sus píxeles) o la transformación de componentes principales (una combinación lineal de bandas, determinada en función de la correlación estadística entre ellas).
Las operaciones locales tienen en cuenta, a la hora de calcular, los valores de un grupo de píxeles próximos. Estas operaciones son útiles para incorporar o extraer información espacial. Las más simples son el suavizado (que elimina cambios bruscos en la imagen, como algunos ruidos) y el realce (que destaca los bordes). También se pueden aprovechar los cambios de nivel en píxeles vecinos para detectar los bordes (costas, límites entre parcelas, vías de comunicación, etc.) en una imagen. En teledetección son habituales también otros tipos de transformaciones locales, un poco más complicadas o más ad hoc, orientadas a corregir las imágenes de partida de defectos o limitaciones en su adquisición.
Los valores de los píxeles de una imagen de teledetección se pueden ver como muestras de diferentes tipos distribuidos más o menos aleatoriamente sobre ésta. Cada uno de esos tipos correspondería a un tipo de cubierta o a un estado de dicha cubierta.
La descripción estadística de los valores de los píxeles de la imagen permite interpretar cuáles son los tipos de cubierta presentes en ella. Cuando esto se hace con una única variable, el nivel digital de una banda, cada modo del histograma se puede considerar un tipo de cubierta. Cuando se generaliza esto a dos o más bandas, es decir, se hace uso de estadística multivariante, se puede dividir el espacio de variables en regiones correspondientes a cubiertas distintas. De este modo, es posible crear mapas temáticos, agrupando los píxeles en clases, en función del modo al que se hallan más próximos. La clasificación se dirá que es supervisada cuando se conocen, a priori, a qué clase pertenecen algunos de los píxeles de la imagen; entonces los píxeles más parecidos a los de una de esas clases, serán de esa clase también. Una clasificación no supervisada tratará de encontrar los píxeles más parecidos entre sí, agrupándolos en cierto número de clases; a qué tipo de cubierta pertenece cada clase hallada será algo que habrá que interpretar a posteriori.
La mayoría de las imágenes ópticas usadas en teledetección ambiental son imágenes multiespectrales, esto es, imágenes en las que se refleja la cantidad de energía electromagnética que un sensor recibe procedente de diferentes puntos de la superficie terrestre.
Para comprender lo que significa una imagen multiespectral, es necesario revisar qué es el espectro electromagnético (una parte del cual la forma la luz visible) y cómo se cuantifica la energía transmitida por la radiación de la forma más adecuada. Aunque la cantidad de energía que se mide realmente es la recibida en cada elemento (en cada píxel) del sensor, lo que interesa saber son las propiedades del cuerpo que la reflejó o emitió. Para ello hace falta reconstruir todo el camino que sigue la radiación a través de la atmósfera hasta llegar al sensor, y “deshacerlo”: en esto consiste la corrección atmosférica, uno de los puntos clave en la teledetección física.
Los cuerpos emiten radiación electromagnética en función de su temperatura, porque la materia establece un equilibrio térmico con el campo electromagnético. Esto es lo que describe la ley de Planck, que relaciona la temperatura de la radiación con su espectro de emisión y con un coeficiente de emisividad, propio del material.
Los sensores térmicos miden la radiancia espectral en una banda adecuada y permiten determinar la temperatura del cuerpo emisor; la banda más adecuada viene dada por la ley de Wien: la longitud de onda de máxima emisividad térmica es inversamente proporcional a la temperatura. Para la temperatura media del planeta Tierra, esta longitud de onda se halla, precisamente, en lo que se llama rango térmico.
En este capítulo se explica por qué cada cubierta terrestre se ve como se ve a través de un sensor multiespectral. Las cubiertas de nubes, hielo, agua, vegetación y suelos, son las más habituales en una imagen de satélite. Las múltiples reflexiones (llamadas, en algunos casos, como en la atmósfera o en el agua, dispersiones), los “acoplamientos” ópticos y la absorción por pigmentos son los fenómenos que determinan cómo ve cada una de ellas. Diferentes factores como la humedad o la compactación afectarán a la reflectividad, y por lo tanto, se podrá conocer el estado de una cubierta basándose en ello. Otros factores que afectan a la reflectividad son los pigmentos que absorben la luz en determinadas bandas. Por ejemplo, las hojas vigorosas son más verdes, es decir, menos azules y menos rojas, ya que la clorofila absorbe estos colores.
El radar es un sensor activo, ya que emite ondas electromagnéticas y las recibe reflejadas por las cubiertas en la superficie terrestre. El tiempo de vuelo de la onda electromagnética a y desde el objetivo alcanzado (el “target”) permite determinar la distancia a éste. Como la potencia que transporta la onda de radiofrecuencia emitida por el radar es conocida y que la atmósfera es prácticamente transparente a esta radiación, es posible además calcular qué fracción de la energía de la onda es retrodispersada desde la superficie de la tierra; esto permite obtener imágenes de ecos que proporcionan una representación de la rugosidad de ésta. Pero el radar permite todavía llevar a cabo otras medidas más importantes, desde el punto de vista de la teledetección. Al ser las ondas de radiofrecuencia ondas de frecuencia baja, pueden ser registradas como oscilaciones del campo electromagnético, esto es, guardar la información de su fase. Las propiedades ondulatorias permiten, entonces, determinar distancias pequeñas con mucha precisión, lo que es de utilidad para calcular desplazamientos o deformaciones del terreno.