mitos acerca de los sensores remotos

14
MITO # 1: Los satélites miden la reflectancia de las características de la planta. Un satélite sensor mide la luminosidad en el propio sensor, no reflectancia de la superficie del objetivo. En otras palabras, el sensor sólo es la medición de la intensidad de la luz cuando golpea la superficie del detector. Las unidades para esta medición son típicamente vatios por metro cuadrado. Reflectancia de la superficie es la relación de la intensidad de la luz reflejada desde una superficie sobre la intensidad de la luz incidente. Para medir la reflectancia que necesitamos saber la intensidad de la luz justo antes de que toque el objetivo de la superficie y del mismo modo que se refleja desde el objetivo. Desafortunadamente, la orientación de la característica de superficie (por lo general debido a la pendiente y de aspecto) y la dispersión atmosférica y la absorción complica nuestra capacidad de medir con precisión la reflectancia de la superficie (Figura 1). Figura 1: La luz del sol es modificado por el ambiente antes y después de tocar la superficie de la Tierra. El sensor en la parte superior de la atmósfera no es capaz de medir directamente la reflectancia debido a estos efectos atmosféricos. Es necesario eliminar estos efectos antes de que podamos calcular con precisión las propiedades de reflectancia de la cobertura de la tierra en la superficie de la Tierra. Es importante entender este concepto erróneo común si uno ha de comprender una de las limitaciones fundamentales de datos de teledetección. Si los instrumentos satelitales podrían de hecho medir la reflectancia de la superficie, nuestro trabajo sería mucho más fácil, y nuestros productos de cobertura del suelo asignados serían mucho más precisos.

Upload: carolina-silva-torres

Post on 07-Feb-2016

23 views

Category:

Documents


0 download

DESCRIPTION

Mitos Acerca de Los Sensores Remotos

TRANSCRIPT

Page 1: Mitos Acerca de Los Sensores Remotos

MITO # 1: Los satélites miden la reflectancia de las características de la planta.

Un satélite sensor mide la luminosidad en el propio sensor, no reflectancia de la

superficie del objetivo. En otras palabras, el sensor sólo es la medición de la

intensidad de la luz cuando golpea la superficie del detector. Las unidades para

esta medición son típicamente vatios por metro cuadrado.

Reflectancia de la superficie es la relación de la intensidad de la luz reflejada desde una superficie

sobre la intensidad de la luz incidente. Para medir la reflectancia que necesitamos saber la

intensidad de la luz justo antes de que toque el objetivo de la superficie y del mismo modo que se

refleja desde el objetivo. Desafortunadamente, la orientación de la característica de superficie

(por lo general debido a la pendiente y de aspecto) y la dispersión atmosférica y la absorción

complica nuestra capacidad de medir con precisión la reflectancia de la superficie (Figura 1).

Figura 1: La luz del sol es modificado por el ambiente antes y después de tocar la superficie de la Tierra. El sensor en la parte superior de la atmósfera no es capaz de medir directamente la reflectancia debido a estos efectos atmosféricos. Es necesario eliminar estos efectos antes de que podamos calcular con precisión las propiedades de reflectancia de la

cobertura de la tierra en la superficie de la Tierra.

Es importante entender este concepto erróneo común si uno ha de comprender una de las

limitaciones fundamentales de datos de teledetección. Si los instrumentos satelitales podrían de

hecho medir la reflectancia de la superficie, nuestro trabajo sería mucho más fácil, y nuestros

productos de cobertura del suelo asignados serían mucho más precisos.

Page 2: Mitos Acerca de Los Sensores Remotos

Mito # 2: Tierra clasificación de la cubierta es un proceso sencillo que consiste

en agrupar los píxeles de una imagen basada en las propiedades de reflectancia

de la función de la ocupación del suelo está clasificado.

Cartografía de la cubierta de la tierra y, de hecho, la interpretación de teledetección, en general,

se basan en la suposición de que dispone en la Tierra tienen firmas espectrales únicas. El trabajo

de un analista de imágenes es utilizar un software especializado para grupos de píxeles de la

imagen en categorías de cobertura del suelo adecuados. Estas categorías se basan en los valores

de los píxeles que a menudo asumimos que estar directamente relacionada con la reflectancia de

la función. Por ejemplo, todos los píxeles que tienen valores similares a los píxeles que sabemos

que son el agua sería clasificado como el agua, y todos los píxeles que tienen

valores similares a los píxeles que conocemos son los bosques sería clasificada como bosque, y así

sucesivamente, hasta que toda la imagen se clasifica en un tipo de cobertura terrestre u otra. Esto

suena bastante sencillo, pero en la práctica puede ser muy difícil porque no podemos determinar

fácilmente la reflectancia real de una característica de la superficie en el suelo de una imagen de

satélite.

Una manera de entender este problema es contrastar la teledetección por satélite con mediciones

de reflectancia en un laboratorio. Entre los factores importantes en la determinación de

reflectancia son:

• La intensidad de la radiación entrante (es decir, la intensidad de la energía de la luz, ya que

golpea el objetivo),

• La intensidad de la radiación reflejada (es decir, la intensidad de la energía de la luz justo

después si sale del objetivo), y

• Orientación de la fuente de luz y el detector con respecto al objetivo.

En un laboratorio de ajuste es relativamente fácil para determinar las propiedades de reflectancia

de un material porque se puede medir fácilmente la intensidad de la energía de la luz cuando se

golpea un objeto (Figura 2). La trayectoria de la luz es controlada, por lo que no se pierde mucha

energía entre la fuente de luz y el objetivo o el objetivo y el detector. Además, la orientación de la

iluminación y de destino se conoce con alta exactitud y precisión.

Page 3: Mitos Acerca de Los Sensores Remotos

Figura 2: En un laboratorio de mediciones de reflectancia se adquieren en un entorno controlado. Este entorno es muy limpio y el analista es capaz de ajustar la intensidad de la luz y el ángulo de la fuente de detector y la iluminación. Los

viaja la luz camino de la fuente de iluminación hasta el detector es también relativamente corto. Esto está en contraste con el medio ambiente terrestre donde estos parámetros pueden ser difíciles de controlar y medir.

En el mundo de la teledetección por satélite, la situación es muy diferente. Sabemos que la

intensidad de la luz antes de que entre la atmósfera de la Tierra, pero a medida que pasa a través

de la atmósfera, que interactúa con las partículas (es decir, vapor de agua, polvo, humo) y

significativamente altera la señal antes y después de interactuar con la diana. Una buena parte del

progreso se ha realizado en la eliminación de estos efectos atmosféricos de una imagen, pero

todavía no puede quitar fácilmente y consistentemente estos efectos.

En cuanto a la iluminación y la orientación del detector se refiere, podemos calcular fácilmente la

posición del sol y el satélite cuando se adquirió la imagen. Es mucho más difícil, sin embargo, para

conocer la orientación del objetivo (su pendiente y de aspecto). Podemos utilizar modelos de

elevación digital para estimar estos parámetros, pero esto normalmente proporciona sólo una

estimación aproximada de la orientación del objetivo. Considere, por ejemplo, una imagen con la

misma vegetación que se encuentra en dos sitios, uno en la sombra de una montaña y la otra

orientada de modo que la cantidad máxima de energía se refleja hacia el sensor (Figura 3). Bajo

estas circunstancias, puede ser muy difícil de procesar la imagen de tal manera que las dos

ubicaciones tendrían los mismos valores de reflectancia.

Page 4: Mitos Acerca de Los Sensores Remotos

Figura 3: Esta es una imagen Landsat TM de una región montañosa boscosa en Vietnam. Esta imagen ilustra cómo los tipos de bosques similares pueden ser muy diferentes a causa de su orientación. Las áreas en negro y verde oscuro son denso bosque situado a la sombra de las montañas mientras que las áreas más brillantes verdes están orientados de

manera que el sol da directamente sobre ella, por lo tanto haciendo que parezca mucho más brillante. Los bosques en estos dos lados de la montaña son muy similares, pero se ven muy diferentes debido a la diferencia en la forma en que

se iluminan. Las sombras en esta imagen son especialmente graves, ya que fue adquirida en una mañana de enero, cuando el sol estaba muy bajo.

La conclusión es que las características de cobertura del suelo similares pueden parecer muy diferentes en un satélite imagen, y no puede haber una buena cantidad de confusión entre las clases de cobertura de la tierra que no tienen drásticamente diferentes firmas de reflectancia, como los diferentes tipos de bosques. Este concepto se discute más adelante en la sección titulada "imágenes Landsat TM es adecuado para clasificar de forma fiable y precisa género vegetación natural y la información de las especies." La conclusión es que las características de cobertura del suelo similares pueden parecer muy diferentes en un satélite imagen, y no puede haber una buena cantidad de confusión entre las clases de cobertura de la tierra que no tienen drásticamente diferentes firmas de reflectancia, como los diferentes tipos de bosques. Este concepto se discute más adelante en la sección titulada "imágenes Landsat TM es adecuado para clasificar de forma fiable y precisa género vegetación natural y la información de las especies."

Page 5: Mitos Acerca de Los Sensores Remotos

Mito # 3: La resolución espectral es el número de bandas (capas de imagen)

disponibles de un sensor en particular.

La resolución espectral se refiere a la gama de longitud de onda que se mide por un canal de

imagen en particular (Figura 4). Por ejemplo, el canal 1 del sensor ETM + a bordo del satélite

Landsat 7 detecta longitudes de onda de 0.45μm - 0.52μm. La banda cacerola en el sensor ETM +,

detecta las longitudes de onda de 0.50μm - 0.90μm. Por lo tanto, se podría decir que en la ETM +

canal del sensor 1 tiene una resolución más fina espectral que hace la banda sartén.

Figura 4: Resolución Espectral se refiere a la anchura de banda de los canales individuales en un sensor. En este ancho de banda de la figura se ilustra por el área semi-transparente que cubre el espectro. En muchos sensores

hiperespectrales el ancho de banda es incluso menos de lo que se representa en el diagrama superior. En contraste, el ancho de banda para una cámara de blanco y negro típico sería cubrir todo el espectro visible en la foto en estos

diagramas.

Aunque los sensores con un montón de bandas de imágenes (estos son llamados sensores

hiperespectrales) por lo general tienen una resolución espectral muy bien, el número de canales

en un sensor no está necesariamente vinculada a la resolución espectral. Para ver cómo anchos de

banda para diferentes sensores comparar van a la herramienta interactiva curva espectral.

Page 6: Mitos Acerca de Los Sensores Remotos

MITO # 4: Medición de las diferencias entre los dos mapas de cobertura

terrestre creadas a partir de imágenes adquiridas en diferentes momentos

proporcionará la estimación más fiable del cambio de la cubierta de la tierra.

Una forma habitual de calcular el cambio de cobertura terrestre es comparar las diferencias entre

los dos mapas de cobertura terrestre que se han creado con imágenes de sensores remotos de

diferentes fechas. Esto a menudo se llama detección de cambios posteriores a la clasificación.

Aunque este método parece lógico y es de uso general, rara vez es el método más adecuado para

determinar la cobertura del suelo con el tiempo.

El problema es que hay errores asociados a cada uno de los dos mapas de cobertura terrestre, y

cuando éstos se superponen, los errores son acumulativos. Como resultado, el error del mapa de

cambio de cobertura del suelo es significativamente peor que cualquiera de los mapas de

cobertura terrestre. Este concepto se presenta en la cobertura de la tierra guía métodos de

cambio, que incluye ejemplos de las formas más precisas para determinar los cambios en la

cobertura de la tierra en el tiempo.

Una forma de ilustrar estos errores es tener un analista imagen clasificar una imagen y luego unos

días más tarde tener ese mismo analista clasificar la misma imagen (Figura 5). Incluso un analista

experto producirá resultados diferentes. Si se superponen estos dos resultados que se vería áreas

percibidas de cambio a pesar de que la misma imagen se utilizó para ambas fechas. En otras

palabras, la superposición de las dos imágenes produce un mapa que ilustra los errores asociados

con el enfoque de post-clasificación. Usando imágenes de la misma zona que fueron adquiridos en

diferentes fechas o con un sensor diferente que probablemente hagan aumentar las diferencias en

la clasificación de coberturas aún más.

Page 7: Mitos Acerca de Los Sensores Remotos

Figura 5: La imagen original es una imagen Landsat Thematic Mapper de Burlington, Vermont adquirió 11 de octubre de 1997. Esta imagen fue clasificado dos veces por la misma persona. Las dos imágenes tienen diferencias resultantes

forma el error asociado con el proceso de clasificación. Las "áreas de desacuerdo / acuerdo" imagen destaca las inconsistencias entre la clasificación en la Ronda 1 y Ronda 2.

Page 8: Mitos Acerca de Los Sensores Remotos

MITO # 5: imágenes Landsat TM es adecuado para clasificar consistentemente

género vegetación natural y la información de las especies con un alto nivel de

precisión.

Este es un tema debatido con frecuencia en la comunidad de la percepción remota, pero el hecho

es que cuanto más detallados que desea su clasificación temática sea, los menos precisos harán

sus resultados sean para las clases individuales. En otras palabras, si se crea un mapa de cobertura

terrestre con clases sólo forestales y no forestales, la exactitud de cada una de estas clases será

mayor que si se intenta romper las clases forestales y no forestales en varias otras clases. Este es

un concepto importante de entender cuando se está desarrollando un sistema de clasificación de

un mapa de cobertura terrestre.

Ross Nelson, del Centro de Vuelo Espacial Goddard de la NASA, ha desarrollado una regla general

sobre la base de un examen cuidadoso de la exactitud de varios estudios publicados en la

literatura teledetección. Por supuesto se pueden encontrar excepciones, pero éstas son pautas

muy útiles. El concepto subyacente es que las más precisas las definiciones de clase son los más

bajos de la exactitud será para las clases individuales. Clasificación de Precisión:

• Bosque / no forestales, de agua / sin agua, suelo / vegetación: precisiones en el alto del 90% 's

• coníferas / madera: 80-90%

• Género: 60-70%

• Especie: 40-60%

Nota: Si incluye un modelo de elevación digital (DEM) en la clasificación, agregar 10%.

Page 9: Mitos Acerca de Los Sensores Remotos

Mito # 6: Un satélite con una resolución de 30 metros le permitirá identificar

características 30m.

En la teledetección, la resolución espacial se define a menudo como el tamaño de un píxel de la

imagen, ya que se proyecta sobre el suelo. Por ejemplo, Landsat ETM + imágenes es a menudo un

tratamiento que tiene un tamaño de 30 metros de píxeles. Esto significa que un ETM Landsat +

píxel representa un área cuadrada de 30m x 30 m sobre el suelo.

La resolución espacial es sólo un factor que nos permite identificar características en una imagen.

Otros factores que se deben considerar para entender que puede ser identificado en las imágenes

de una resolución particular. Estos incluyen:

• Contraste entre las características adyacentes

• La heterogeneidad del paisaje

• Nivel de información

El contraste entre una característica que nos gustaría para detectar y el fondo tipo de cobertura

influye en gran medida del tamaño de una característica que podemos detectar. Por ejemplo, si

hay un camino ancho de 2 metros que se corta a través de un denso bosque, hay una buena

probabilidad de que seríamos capaces de detectar que con un píxel de 30 metros debido al fuerte

contraste entre el suelo brillante y el bosque oscuro (Figura 6). Por otro lado, si había un parche de

1 hectárea que estaba cubierto con pequeños árboles y arbustos que podría parecer demasiado

similar a la selva de fondo para nosotros, para diferenciarla de la selva más maduro.

Page 10: Mitos Acerca de Los Sensores Remotos

Figura 6: La imagen de Burlington, Vermont fue adquirido el 11 de octubre de 1997 por el sensor Thematic Mapper montado en el satélite Landsat. Aunque la resolución de este sensor es de aproximadamente 30 metros podemos ver

algunas de las características más pequeñas de 30 metros. También hay algún objeto que, a pesar de que son más grandes de 30 metros, no podemos diferenciarnos del paisaje circundante. Contraste juega un papel importante en la

diferenciación entre las características de la planta. Relativamente pequeño objeto, como carreteras y los interruptores en el lago son visibles debido a la gran diferencia

de las características adyacentes.

La heterogeneidad del paisaje también puede influir en lo bien que podemos detectar una

característica. Si el paisaje es muy heterogénea, debido a las variaciones del terreno o de

cobertura del suelo, es más difícil de detectar una característica de que si el fondo es muy

homogénea (Figura 7).

Page 11: Mitos Acerca de Los Sensores Remotos

Figura 7: Se trata de una imagen Landsat TM de una región en el centro de Vietnam. La línea de color morado claro que se extiende por el centro de la imagen, de izquierda a derecha es una parte de la carretera Ho Chi Minh que va

desde Hanoi a Ho Chi Minh City. En el lado derecho de la imagen de la carretera es muy evidente debido al contraste entre la carretera brillante y el bosque más oscuro. En el lado izquierdo de la imagen, sin embargo, es mucho más

difícil de localizar el camino, ya que tiende a mezclarse más con el suelo y otras características brillantes en el valle.

Otra cuestión relacionada con la capacidad de resolver características en un paisaje es el nivel de

información que podemos interpretar en una situación dada. Hay diferentes niveles de

información que podemos recopilar sobre las características en una imagen: la detección,

identificación y la información contextual. En el nivel más básico, somos capaces de detectar que

hay una característica presente que es diferente de su entorno. El siguiente nivel es ser capaz de

identificar ese objeto. El nivel final es ser capaz de derivar información contextual acerca de una

característica.

Estos diferentes niveles de información se pueden ilustrar con un ejemplo. Si vemos unos pocos

píxeles brillantes en una imagen que está cubierta de bosques en gran parte, podemos decir que

hemos detectado algo en el bosque que no parece ser el mismo que el bosque circundante. Si esos

píxeles brillantes están conectados en una línea, podríamos llegar a la conclusión de que este es

un camino. Si vemos que la línea brillante a través del bosque va de una ciudad a otra, podríamos

concluir que se trata de una

carretera principal entre estas dos ciudades. A medida que el nivel de información que queremos

extraer de una imagen, aumenta también el número de píxeles necesarios para llegar a ese nivel

de información. En nuestro ejemplo, podríamos haber detectado que algo era diferente del

bosque por ver a pocos píxeles (es decir, menos de 10 píxeles). Para llegar a la conclusión de que

era un camino que necesitaríamos más píxeles (es decir, 20 a 40 píxeles). Para entender el

contexto de la carretera que necesitaríamos cientos de píxeles. En general, por lo tanto, la

información más se desea recoger de una imagen, mayor será el número de píxeles son necesarios

para llegar a ese nivel. El grado de aumento varía según la función que se está supervisando y el

tipo de imágenes utilizadas.

Page 12: Mitos Acerca de Los Sensores Remotos

Mito # 7: El uso de imágenes referenciadas-orto es siempre una opción mejor que el uso de imágenes no-orto-rectificadas.

Hay tres correcciones geométricas comunes que se aplican a las imágenes de satélite en un intento de corregir los errores geométricos inherentes a imágenes de teledetección. El más simple son las correcciones sistemáticas en la que se eliminan las distorsiones causadas por el sensor y por el movimiento del satélite. Un proceso intermedio se llama a menudo la georreferenciación. Esto implica tomar una imagen corregida sistemáticamente y luego mejorar la calidad geométrica utilizando puntos de control en tierra (lugares conocidos que se pueden combinar entre la imagen y el suelo) para aumentar la precisión del sistema de coordenadas de la imagen. El proceso más avanzado se llama orto-rectificación, que corrige las distorsiones causadas por los desniveles del terreno, además de las correcciones sistemáticas. En la imagen en terreno llano, una imagen geo-corregida es efectivamente el mismo que una imagen orto-corregida. Una imagen orto-rectificado es efectivamente un mapa de imagen y se puede utilizar como una base de mapa. Con el fin de crear una imagen rectificada-orto, es necesario utilizar un modelo de elevación digital (DEM) para la elevación de cada pixel puede ser determinada. Para muchas regiones del mundo, DEM con suficiente detalle a orto-rectificación moderada para resaltar las imágenes de satélite de resolución no están disponibles para el público en general. Como producto de mapeo, una imagen orto-rectificado es superior a una imagen que no ha sido orto-rectificado, ya que tiene la mejor precisión absoluta. Un problema puede ocurrir, sin embargo, cuando uno quiere comparar una imagen orto-rectificado a una imagen rectificada-no-orto. Al comparar las imágenes, tal como se haría la hora de determinar los cambios en la cobertura de la tierra en el tiempo, la precisión de la posición relativa entre las imágenes (que tan bien se alinean las imágenes) es más importante que la exactitud absoluta (lo bien que la imagen coincide con una base cartográfica). Tratar de igualar una imagen corregida geo-corregida o sistemáticamente a uno orto-corregida puede ser una tarea muy difícil ya menudo poco práctico debido a las complejas distorsiones en una imagen orto-corregida. Al tratar de lograr una alta precisión relativa entre dos o más imágenes de satélite a menudo es más fácil de hacerlo por imágenes corregidas sistemáticamente georeferenciación utilizando una de las imágenes como la imagen de referencia. En otras palabras, si usted tenía tres imágenes corregidas sistemáticamente superponer, debería seleccionar uno de ellos para ser la referencia y después, utilizando el software de detección a distancia estándar, usted georreferenciar las otras dos imágenes de la imagen de referencia. Dependiendo de la exactitud de las imágenes corregidas-orto, incluso puede ser poco práctico tratar de alinear dos o más imágenes orto-corregida. Si se utilizaron diferentes métodos para crear el orto-corregida, las distorsiones entre las dos imágenes pueden ser bastante diferentes, haciendo que el proceso de alineación muy difícil. El mejor escenario es tener todas las imágenes corregidas-orto utilizando el mismo proceso para que tengan una alta precisión absoluta y relativa, pero que a menudo no es práctico cuando se trabaja con recursos limitados. La conclusión es que las imágenes corregidas-orto pueden tener mayor precisión absoluta, pero

Page 13: Mitos Acerca de Los Sensores Remotos

cuando se necesita precisión relativa, puede ser mejor usar sólo imágenes corregidas de manera sistemática en lugar de mezclar imágenes sistemáticamente corregidas con imágenes orto-corregida. Hay una enorme archivo de imágenes orto-rectificadas Landsat TM disponible de forma gratuita en la Universidad de Global Land Cover Fondo de Maryland (GLCF), pero se debe tener cuidado al utilizar estos datos con otras imágenes.

Mito # 8: Los píxeles cuadrados en una imagen representan con precisión un área cuadrada de la superficie de la Tierra. Cuando nos centramos en una imagen de satélite en el equipo, podemos ver claramente píxeles cuadrados, y es fácil pensar que esto es una representación exacta de lo que ve el sensor como se graba la imagen. Este no es el caso, sin embargo, debido a que el sensor de detección de energía para un píxel individual en realidad ve un círculo o una elipse en el suelo. Además de eso, es interesante observar que el 50% o más de la información para un píxel dado contiene energía grabada de la zona de superficie que rodea un píxel individual (Figura 8). Esto tiende a contribuir a las fronteras difusas entre los objetos en lugar de la frontera nítida que cabría esperar. Para visualizar este efecto, la imagen utilizando el haz de una linterna para representar lo que se ve por un elemento sensor individual (la parte de un sensor que registra la energía para un píxel individual). Puesto que el haz sale de la linterna, se extiende hacia fuera de manera que por el tiempo que se realiza un objetivo (una pared, por ejemplo) el extremo de la viga es mayor que el reflector dentro de la linterna. Si tratamos de iluminar una imagen cuadrada que cuelga en una pared, gran parte de la luz de la linterna en realidad caería fuera de la imagen. Si la linterna estaba grabando energía de la luz (en lugar de emitirla), sería grabar energía a partir de la imagen y la pared. También es interesante observar que el haz es más brillante hacia el centro. Una vez más, si pensamos en la linterna como un sensor, que iba a registrar más energía hacia el centro del campo de visión de hacia los bordes. Este concepto se ilustra en el Qué sensor ve herramienta interactiva.

Figura 8: Aunque píxeles aparecen típicamente cuadrado en una imagen de la luz registrada para determinar el valor

(color) de un pixel viene de una circular (o elíptica si el sensor no está mirando hacia abajo) área que cubre aproximadamente el doble del área superficial de la área cubierta por el propio píxel. A pesar de que los detectores

del sensor son más sensibles a la luz en el centro del campo de visión del detector, lo que significa que el área cubierta por un píxel capta la mayor parte de la luz registrada por un detector, la luz desde fuera del área de píxeles contribuye

al valor del píxel . En otras palabras, la ocupación del suelo en píxeles adyacentes puede tener una influencia en el valor de un píxel.

Page 14: Mitos Acerca de Los Sensores Remotos

El efecto de distorsión de la energía de grabación de píxeles adyacentes se amplifica si el ambiente

es nebuloso sobre la función que se percibió. Este desenfoque se debe a partículas en el aire que

obligan a los fotones de energía (la luz) que se rebotó alrededor en lugar de viajar en línea recta. El

rebote de electrones hace que el sensor a la energía de registro de un objeto que no está en la

línea de visión de un elemento sensor individual. Este es el mismo efecto que hace que los objetos

parezcan un poco borrosos cuando nos fijamos en ellos en un día nebuloso o brumoso.