...

Medida, control y propagación del error

by user

on
Category: Documents
0

views

Report

Comments

Transcript

Medida, control y propagación del error
Capítulo 3
Medida, control y propagación del error
por Angel Manuel Felicísimo, biólogo
http://www.etsimo.uniovi.es/~feli/
Introducción
Los ordenadores y programas utilizados para el manejo de la información cartográfica permiten
definir localizaciones con una precisión casi arbitraria. Los dígitos significativos que muchos
SIG pueden manejar permiten representar una coordenada UTM especificando sin problemas las
milésimas de milímetro. Esta precisión se transmite aparentemente al resto de las operaciones
que realizan los SIG. Unos buenos gráficos, una leyenda fácilmente legible, unos colores
correctamente elegidos y otros aspectos formales de la presentación, tienen como resultado una
sobrevaloración de la calidad de la información presentada.
Dadas estas circunstancias y otras similares, no es extraño observar la ausencia de cualquier
mención a la exactitud en las bases cartográficas digitales. Tampoco es frecuente cuestionar los
resultados de un análisis, ni fácil comprobar la bondad de unos resultados cuando no se presentan
estadísticos relativos al error de los datos y operaciones.
Sin embargo, la realidad muestra de forma cada vez más patente que los problemas inherentes al
manejo de las bases de datos cartográficas se deben, en una buena parte, a su mala calidad. Es
conveniente tener en cuenta que muchos documentos digitales han sido "capturados" de mapas
impresos de naturaleza muy heterogénea. Estos mapas fueron generados con unos objetivos y
expectativas que no tienen porqué coincidir con los actuales. La potente maquinaria actual y los
sofisticados programas informáticos permiten obtener un resultado que replica fielmente todos
los defectos del original y añade algunos nuevos. Sin embargo, su naturaleza digital induce a
creer frecuentemente que el contenido de la base de datos es mejor que el original analógico.
El problema se incrementa con el tiempo, cuando unos datos originales han sido usados para
diferentes modelizaciones, cuyos resultados son, asimismo, tomados como ciertos y reutilizados
en otros procesos. El proceso sigue hasta el punto de olvidar el origen de la cadena y perdiendo,
por tanto, toda referencia con la realidad.
Por estos motivos es cada vez más necesario incorporar lo que se ha llamado meta-información o
metadatos en los productos SIG: información sobre la información, de la cual la referente al error
es uno de los elementos de mayor importancia (Geertman y Ruddijs, 1994:152).
Las fuentes del error
El modelo digital de elevaciones es el origen de todas las modelizaciones total o parcialmente
dependientes de la topografía. Por este motivo, la utilidad y validez de los resultados derivados
están estrechamente relacionadas con la calidad del modelo original. Es muy frecuente en la
bibliografía la ausencia de información sobre las características de los MDE utilizados en las
aplicaciones, especialmente cuando éstos han sido construidos por los propios investigadores y
no provienen de fuentes oficiales o de organismos cualificados.
La calidad de un MDE depende del tipo y magnitud de los errores implicados. Conviene
recordar, sin embargo, que la existencia de error es una circunstancia asumida en el proceso de
modelización, que siempre implica una simplificación de la realidad. La información es, por
tanto, inherentemente imprecisa. El problema básico consiste en conocer y controlar esta
imprecisión, de forma que sea posible saber la fiabilidad de los resultados.
Los errores en los MDE pueden ser separados en dos categorías:
•
los errores posicionales implican una deficiente localización geográfica de
la cota o de la trayectoria de la curva de nivel y afectan, por tanto, a la
situación en el plano XY
•
los errores atributivos suponen una asignación imprecisa de la altitud
asociada a la cota o a la curva e implican a las coordenadas en el eje Z
Estos dos tipos de errores han sido denominados también, de forma más genérica, cartográficos
—error en la localización de elementos—, y temáticos —error en el atributo cartografiado—
(Veregin, 1989b:12).
Los errores posicionales afectan a los modelos vectoriales, como los basados en contornos o en
las redes de triángulos, que manejan entidades geométricas. Los modelos raster, basados en
localizaciones definidas implícitamente no se ven afectados por errores de posición.
Los errores atributivos afectan tanto a modelos vectoriales como raster. En el primer caso suele
tratarse de errores en el sentido más básico de la palabra —blunders—, es decir, fallos groseros y
locales en la asignación de la altitud. En el caso de las matrices regulares, el origen del error
suele estar en las múltiples operaciones geométricas implicadas en la construcción del MDE. En
este caso, el error es de naturaleza estadística y global, pudiendo considerarse un atributo que
define y caracteriza el MDE.
El error de las fuentes primarias
Como ya se ha indicado, los MDE pueden ser construidos a partir de orígenes diversos. Los más
habituales son la digitalización de mapas preexistentes y la restitución fotogramétrica con salida
digital cuya versión más reciente usa pares estereoscópicos tomados por satélites.
La construcción del MDE mediante pares estereoscópicos con imágenes de
satélite
Como ya se ha indicado anteriormente, las imágenes de algunos sensores transportados por
satélite han sido utilizadas para generar modelos digitales de elevaciones usándolas como pares
estereoscópicos.
En un primer ensayo, Mukai et al. (1989) han utilizado pares de imágenes Landsat-TM para
calcular altitudes en la zona de solapamiento entre dos órbitas. Los resultados que presentan
señalan un error cuadrático medio, ECM, de 92 m, lo que supone 3 veces el tamaño del pixel de
la imagen original —30 m—. La zona, de 40x45 km y situada en los Alpes centrales de Japón,
posee un desnivel máximo de 2200 m. Para el cálculo del ECM se utilizó un total de 60 puntos
de control. Las imágenes Landsat no son adecuadas para este trabajo debido a su reducido
solapamiento, de apenas un 5%.
El satélite SPOT es claramente más adecuado para el cálculo de altitudes debido a dos
circunstancias. La primera, que el tamaño de pixel de las imágenes es de 10 m en modo
pancromático, lo que supone un incremento muy significativo de la resolución. La segunda es
que el SPOT puede tomar pares de imágenes estereoscópicas de la zona que se desee girando las
cámaras, lo que permite cubrir cualquier zona de la superficie terrestre; en esta caso el
solapamiento entre imágenes puede ser del 66%.
Mukai et al. (1990), usando técnicas similares a las de su anterior trabajo con Landsat-TM,
consiguen en este caso valores del ECM de 26 m partiendo de las imágenes SPOT
pancromáticas. Sasowsky et al. (1992) realizan pruebas similares en un área de 25 km2 de Alaska
y proponen una magnitud del ECM de 19 m, con errores entre –13 y +48 m. En este caso, los
errores no tienen media nula, lo que significa que el MDE derivado de las imágenes SPOT tiene
una tendencia significativa a proponer altitudes más elevadas que el mapa de referencia —escala
1:6.000—.
Priebbenow (1988) presenta resultados de una experiencia realizada en Australia con valores del
ECM de 5,4 m. Su conclusión es que las imágenes SPOT pancromáticas permiten generar
cartografía con una precisión geométrica elevada y compatible con los estándares de la escala
1:50.000.
Finalmente, Kubik y Wu (1995) presentan los resultados del tratamiento de imágenes SPOT
mediante estaciones de trabajo fotogramétricas con un ECM de 6 m en altitud.
La conclusión general es que las imágenes SPOT permiten construir modelos con valores del
ECM variables en función del relieve y de los métodos utilizados. La magnitud del error limita
sus aplicaciones en grandes escalas pero, como veremos posteriormente, puede ser razonable si
se generan modelos matriciales donde el ECM sea aproximadamente un 10% del tamaño de la
malla —distancia entre filas y columnas—.
La construcción del MDE mediante interferometría radar
La interferometría radar es una técnica que usa las diferencias de fase entre dos imágenes para
estimar la distancia entre la superficie y el satélite o avión. La fase de un pixel es la suma de dos
componentes: la fase específica —relacionada con la naturaleza del terreno— y un desfase que
depende de la distancia entre el terreno y el radar. Superponiendo y hallando la diferencia entre
dos imágenes diferentes la fase específica puede eliminarse. La resultante es el componente
debido a la diferencia de distancia entre los dos pasos del satélite. A partir de esta imagen de
interferencia es posible estimar la altitud absoluta con precisión variable en función de diferentes
parámetros.
La construcción de MDE mediante radar tiene se más reciente muestra en el TOPSAR —
topographic synthetic aperture radar—, desarrollado por el Jet Propulsion Laboratory de
California. El TOPSAR, en funcionamiento conjunto con el JPL Aircraft SAR, adquiere
imágenes cenitales de la superficie terrestre con una resolución horizontal de 5 m y un error en la
determinación de la altitud de 1 a 3 m, en función del tipo de relieve. El TOPSAR/AIRSAR es
transportado por un DC-8 a una altitud típica de 9 km. El sistema está dotado de un sistema GPS
para la localización, lo que permite un referenciación geográfica precisa de la trayectoria del
vuelo y, por tanto, del conjunto de los datos medidos.
Thompson et al. (1995:99) indican que la satisfactoria experiencia del TOPSAR anuncia un
posible satélite topográfico que podría tener un error altitudinal de unos 2 m con una resolución
horizontal de 30 m. Sin embargo, en Evans (1995) se indica que los radares actuales
transportados por satélites no pueden ser utilizados de forma rutinaria para determinar la
superficie topográfica. La razón principal reside en la desconocida influencia de la ionosfera en
el retraso de la señal; este problema puede ser resuelto mediante radares de doble frecuencia, o
reducido tomando los datos durante la noche —lo que limita la cobertura y periodo de las
tomas—.
Small y Nüesch (1996) analizaron la calidad de los datos ERS interferométricos comparándolos
con "modelos de referencia de alta calidad". El mejor resultado obtenido fue un ECM de 2.7 m.
En otro ensayo, el ECM creció hasta los 12 m a causa del mayor intervalo temporal entre las
tomas (3 días en el primer caso y 15 días en el segundo).
El error de las fuentes secundarias
El error posicional, que afecta a las estructuras vectoriales, puede tener varios orígenes. El más
frecuente es el derivado de la digitalización de mapas, tanto más debido a la tendencia a
infravalorarlo, probablemente por la dificultad de su corrección. Cabe destacar que una magnitud
elevada del error posicional puede obligar a un uso de los mapas exclusivamente cualitativo,
limitando severamente la utilidad de la información.
La digitalización manual de mapas sigue siendo el método más usual de incorporar información
topográfica. La razón probablemente estriba en que la digitalización automática es dificultosa a
partir de los complejos mapas editados, que son los más fácilmente disponibles.
La digitalización manual ha sido reconocida como una importante fuente de error cartográfico
cuyas causas pueden dividirse en dos categorías, en función de su origen:
•
las causas externas están relacionadas generalmente con la deformación de
los documentos —mapas antiguos, en mal estado de conservación,
referenciación geográfica deficiente o, simplemente, de mala calidad—.
•
las causas operacionales hacen referencia a los procesos de digitalización
y manipulación posterior de los datos: por ejemplo, el error introducido en
el proceso de digitalización se debe básicamente a la inexacta colocación
del cursor sobre la curva de nivel.
Los errores debidos a deformaciones del documento digitalizado pueden rectificarse, al menos
parcialmente, mediante un proceso global de corrección geométrica. Este proceso está integrado
habitualmente en los propios programas de digitalización y son capaces de modificar
coherentemente la localización de las entidades cartografiadas en función de un conjunto de
puntos de referencia —ver apartado siguiente—.
El error de la digitalización
En el caso de los errores derivados de la digitalización manual, cabe distinguir tres casos
diferentes:
•
el error topológico, provocado por que el operador sigue una línea
equivocada debido a una mala interpretación del mapa
•
el error estocástico, generado por la imprecisión en el seguimiento de las
líneas debido a una deficiente colocación del cursor
•
el error de generalización, debido a la simplificación del trazado de las
curvas transformadas a polilíneas de tramos rectos
Los errores topológicos son simples de detectar y corregir mediante un simple análisis visual
debido a los rígidos patrones de distribución de las curvas de nivel —"paralelismo", coherencia
topológica—. Por este motivo, este tipo de errores se elimina en la primera etapa del control de
calidad y no tiene una influencia relevante en la calidad del modelo final. Como ya se ha
indicado en el tema anterior, el error topológico es mucho más frecuente en la digitalización
automática mediante escáner (Peled y Fradkin, 1994:246), donde la experiencia y capacidad de
interpretación del operador no pueden ser aplicadas.
Los errores estocásticos de digitalización pueden ser debidos esporádicamente a causas
fisiológicas —temblores causados por el cansancio y otros movimientos bruscos—. En este caso,
el operador suele detectarlos y corregirlos sobre la marcha.
Quedan, sin embargo, las imprecisiones debidas a la imposibilidad física de replicar exactamente
la trayectoria de las curvas de nivel. En este caso se ha propuesto que los errores de colocación
están autocorrelacionados y son, al menos parcialmente, procesos no aleatorios dependientes de
los puntos previamente introducidos (Keefer, 1988:477). El motivo es que el operador tiende a
un trazado inercial de la línea rebajando o excediendo la trayectoria según su morfología.
Esta circunstancia está clara en el caso de la digitalización en modo continuo —stream mode—,
donde el cursor está en movimiento y las coordenadas se introducen de forma automática cada
cierta distancia sin control por el operador. En el caso de la digitalización punto a punto —point
mode—, se ha propuesto que el error puede ser aleatorio y no autocorrelacionado. El motivo es
que existe una pausa entre punto y punto, durante la cual el operador coloca el cursor sobre la
línea. Si el tiempo entre puntos sucesivos es suficiente el error en cada punto será independiente
de los anteriores. Sin embargo, existe la tendencia a mantener el cursor en continuo movimiento,
pulsando de forma secuencial y continua. En este caso, el modo punto a punto se asemeja al
modo continuo y el fenómeno de autocorrelación se hace significativo.
La presencia de autocorrelación puede detectarse mediante pruebas de aleatoriedad, donde la
variable independiente es el tiempo o, más exactamente, la secuencia ordenada de puntos
digitalizados. El análisis es básicamente equivalente a una serie temporal donde se asume que los
puntos son digitalizados a intervalos constantes.
Finalmente, el error de generalización se produce por la reducción de la línea curva original a
otra compuesta por pequeños segmentos rectilíneos entre los puntos digitalizados. Cabe
distinguir dos tipos diferentes de generalización:
•
la generalización cartográfica —graphic-oriented generalization— es
utilizada para representar gráficamente la información a diferentes escalas.
Se trata de un proceso básicamente gráfico donde las líneas son
redondeadas, comprimidas, colapsadas o simplificadas con el objetivo de
facilitar su lectura y no de conservar una extrema fidelidad al original.
•
la generalización para la modelización —model-oriented generalization—
tiene como objetivo la simplificación controlada de los datos para la
conservación de propiedades relevantes del original. El proceso se realiza
para utilizar el modelo en simulación y análisis por lo que es importante la
valoración y el control de la propagación del error.
El problema de la digitalización es que se realiza para la modelización pero partiendo de
originales sometidos a una generalización cartográfica. La conclusión es que el error cometido
es frecuentemente desconocido y no cuantificable.
En la digitalización, las curvas de nivel originales quedan representadas mediante un conjunto
reducido de vértices. El producto final son polilíneas de menor complejidad que las originales.
La razón de efectuar la generalización es la reducción del volumen de datos pero a costa de una
pérdida de información que supone un incremento del error.
El error de generalización tiende a reducirse cuando el número de puntos aumenta, y se
incrementa generalmente con la complejidad de la línea original. La forma de reducir el error
manteniendo un volumen de datos moderado es realizar una buena selección de los puntos
críticos de la curva. La experiencia del operador es un factor importante en esta selección pero
probablemente es preferible realizar una digitalización densa y aplicar posteriormente algoritmos
de generalización automática. Estos algoritmos, en términos generales, conservan la longitud y
ángulos satisfactoriamente y, sobre todo, desplazan mucho menos las líneas que la
generalización manual, luego causan mucha menos distorsión (João, 1995:188).
El análisis del error de digitalización: modelos ARMA
Como se ha indicado anteriormente, el análisis del error de la digitalización puede ser asimilado
al de las series temporales. En el caso de existir autocorrelación, el error en un punto j, ej puede
ser representado como una suma ponderada de un número finito n de errores anteriores más un
término aleatorio a propio de cada punto:
Además del proceso autorregresivo puro —AR, autoregression— es posible la existencia de
otros que expliquen la secuencia temporal. Si el operador se da cuenta de la tendencia de sus
errores puede introducir sesgos voluntarios para corregirlos. En este caso aparece un proceso de
media móvil —MA, movil average— donde la suma ponderada de los anteriores términos
aleatorios a explica una parte de la varianza:
Se ha planteado la hipótesis de que el error puede explicarse mediante el modelo autorregresivo,
el de media móvil o una combinación de ambos —modelo ARMA—(Keefer, 1988:479).
El uso de modelos ARMA puede ser un camino para modificar los ficheros procedentes de la
digitalización y reducir el error posicional global. En efecto, si se demuestra que el modelo es
coherente y puede explicar una fracción significativa del error, puede ser aplicado a posteriori
para realizar una corrección de las coordenadas. Al menos, la parte del error explicada por
autocorrelación podría ser reducida para mejorar la calidad del proceso. Sin embargo, esta
hipótesis debe ser aún comprobada ya que no se han localizado trabajos en la bibliografía que lo
hayan llevado a la práctica.
La cuantificación del error posicional: la banda épsilon
Cuando una curva de nivel se digitaliza y se define por un número de segmentos, la
incertidumbre debida al error posicional de los vértices afecta a una banda o pasillo alrededor de
la línea.
La banda de probabilidad suele denominarse banda épsilon ε y representa un entorno de
probabilidad de la localización real de la curva de nivel alrededor de la línea digitalizada. Si la
banda es simétrica normalmente a la línea, se asume que no existe sesgo en la digitalización, es
decir, no ha existido una tendencia significativa a digitalizar a un lado concreto de la línea.
La banda épsilon fue utilizada originalmente por Perkal (1966) como método de generalizar
objetivamente una línea. El algoritmo más utilizado en la actualidad para generalizar las líneas
(Peuker y Douglas, 1975) es básicamente un procedimiento iterativo que maneja implícitamente
el concepto de banda e al definir una distancia umbral para la "limpieza" de las líneas —weed
tolerance—. El valor de ε puede usarse, sin embargo, como un índice de calidad al valorar el
proceso de digitalización.
Interpretada como una banda de probabilidad, la anchura de la banda ε crecerá en función directa
de la magnitud del error en la digitalización. La banda épsilon puede representarse, por tanto,
codificada en valores de gris de acuerdo con el valor de probabilidad asignado a cada zona
alrededor de la línea —ver figura—.
Representación de la banda épsilon como región probabilística. Cuanto más oscura
es la zona, mayor probabilidad tiene de contener la línea real. Los vértices
digitalizados se muestran como puntos blancos definiendo el pentágono.
Es posible realizar una estimación de la magnitud de e en un mapa cuando se dispone de otro
más detallado de la misma zona. Para ello se superponen algunas líneas homólogas y se miden
las distancias entre ellas, perpendicularmente a la línea de referencia y a intervalos constantes.
Los errores medidos, en ausencia de sesgo, se ajustarán a una distribución normal de media cero
y desviación estándar s. Para un valor ε=±1,96 s, la banda épsilon representa la zona
donde, con una probabilidad del 95%, pasa la línea original.
Cabe considerar que el valor de ε puede no ser constante en todo el mapa. El motivo es que el
error de digitalización puede variar en función de la complejidad de las líneas y de su
proximidad.
El manejo de la información en función del valor de ε es un tema aún poco desarrollado. El tema
a empezado a preocupar en el contexto de los mapas temáticos vectoriales, donde la imprecisión
de las líneas genera problemas en las operaciones de superposición y, en general, en el álgebra de
mapas (Lowell, 1995). Sin embargo, en el caso de la generación del MDE a partir de líneas con
error conocido aún no se ha hecho avance alguno.
El error cartográfico: la calidad de los mapas
La calidad de los mapas originales puede ser un problema importante cuando no ha existido un
control de calidad suficiente, especialmente en la precisión altimétrica. En Estados Unidos se
sigue la regla del 90%: en las pruebas con puntos de control, el 90% de ellos deben tener un error
menor a la mitad del intervalo entre curvas de nivel. En España, una gran parte de la cartografía
de gran escala ha sido generada por muy diversos organismos o empresas con parámetros de
calidad desconocidos.
Los errores de los mapas originales se suman, por tanto, a los ya estudiados del propio proceso
de digitalización. Pueden diferenciarse los siguientes componentes:
•
error altimétrico absoluto del mapa o error máximo admitido en los
procesos fotogramétricos
•
propagación del error planimétrico a la altimetría: el error planimétrico se
establece habitualmente en 0,2 mm de la escala del mapa. Su efecto en la
altitud es proporcional a la tangente de la pendiente del terreno
•
deformaciones dimensionales del mapa, debidas a alteraciones en la
temperatura y humedad
En cuanto a la magnitud de la suma de errores, Tahiri y Donnai (1995) presentan un modelo de
valoración del error entre cuyos resultados cabe destacar la presencia de ECMs de 5 a 10 m para
mapas 1:50.000 con 10 m de intervalo entre curvas de nivel. Estos datos pueden prevenir sobre
los errores iniciales del mapa que va a ser digitalizado ya que en el peor de los casos —una zona
con fuerte relieve— el ECM iguala al intervalo entre curvas y el error máximo lo triplica.
La deformación de los mapas
La deformación del mapa topográfico debido a cambios dimensionales provoca errores globales
que afectan a la totalidad de los datos del modelo. Cuando los datos van a usarse en procesos de
análisis y modelización es aconsejable realizar un estricto control de las dimensiones del
problema desde el primer momento.
Cabe destacar que la detección y corrección de este tipo de errores sólo es posible cuando se trata
de deformaciones globales. Esto significa que problemas tan usuales como los dobleces en los
mapas pueden ser muy difíciles de corregir por tratarse de deformaciones locales.
La medida de este tipo de error puede realizarse con criterios estadísticos a partir de un conjunto
de puntos de control localizados con precisión. El problema se plantea básicamente como una
transformación de coordenadas, desde un sistema original deformado a otro de referencia,
habitualmente un sistema de proyección geográfica.
Los programas de digitalización suelen tener incorporadas utilidades para realizar la corrección
desde el principio pero también es posible realizarlo a posteriori mediante procesos de ajuste que
la mayoría de los SIG poseen.
El método de corrección se ejecuta en tres pasos:
•
se establece una serie de puntos de control cuya localización se conoce
con exactitud en ambos sistemas de coordenadas
•
se establecen unas funciones de transformación entre ambos sistemas,
calculadas a partir de los puntos de control
•
se aplican las funciones de transformación sobre los puntos de control para
conocer la magnitud del error
•
en caso de que el error sea aceptable, se realiza la transformación global
aplicando las funciones a la totalidad de puntos
Las funciones de transformación suelen estimarse de forma independiente para las abscisas y
para las ordenadas. Definiendo con el subíndice T a las coordenadas originales —tablero, por
ejemplo— y con G a las finales —sistema de proyección—, se tienen las siguientes expresiones
generales:
En la mayoría de los casos, las funciones anteriores se estiman aplicando métodos estadísticos de
los cuales el más utilizado es el de superficies de tendencia, en el que las funciones ζ se calculan
mediante regresión múltiple o ecuaciones polinómicas estimadas por el método de mínimos
cuadrados. Se han propuesto funciones diferentes (Goshtasby, 1986, 1988) pero el método
polinómico es el más utilizado.
El grado del polinomio de ajuste puede ser variable. Cuando vale 1 es posible efectuar
transformaciones afines, es decir, operaciones de translación, rotación y cambio de escala. Los
grados superiores permiten recuperar distorsiones geométricas más complejas. En el primer caso,
las ecuaciones de transformación se reducen a un plano de regresión:
.
La estimación del error cometido en la transformación: se realiza comparando las coordenadas
de los puntos de control con las resultantes de aplicar las funciones de transformación sobre los
mismos puntos. El error suele estimarse como error cuadrático medio, ECM, separable para las
componentes x e y:
El límite aceptable para el error cuadrático máximo de los puntos o para el ECM debe fijarse en
función de la aplicación a la que va destinado el MDE, así como de la escala de partida, primer
determinante de la precisión geométrica de un modelo. En la digitalización manual puede
proponerse un límite empírico que sería la distancia que corresponde a 0,25 mm del mapa a la
escala de trabajo. Con un original a escala 1:50.000 este valor es de 12,5 m y corresponde
aproximadamente a la precisión máxima que un operador experimentado puede obtener en la
digitalización manual.
En caso de errores excesivos deben examinarse individualmente los puntos de control para
comprobar si existe alguno especialmente anómalo. Posteriormente, puede variarse el grado de la
transformación para intentar mejores ajustes. De forma general, la transformación de primer
grado sólo permite efectuar ajustes lineales por lo que, si el mapa está distorsionado, serán
necesarias previsiblemente transformaciones de grado superior. Existe un límite práctico
derivado de la precisión de los cálculos implicados en las operaciones matriciales necesarias.
Finalmente, debe destacarse que los puntos de control del mapa se digitalizan manualmente por
lo que una introducción descuidada puede una causa complementaria de error muy significativa.
La medida del error atributivo
Como ya se ha indicado, en el error atributivo puede afectar tanto a los modelos vectoriales
como a los matriciales. En el primer caso, la mayoría de las veces se trata de errores locales,
equivocaciones al asignar la altitud a las curvas de nivel o a los puntos acotados.
En este caso, la forma más simple de detectar el problema es trazar perfiles paralelos en diversas
direcciones y examinar visualmente los resultados. La corrección se realiza manualmente
actualizando en la base de datos el registro que describe la curva errónea. También es posible y
útil generar un MDE matricial y, a partir de él, modelos derivados. Algunos de ellos permiten ver
fácilmente los errores debido a las irregularidades en la distribución de las variables —
especialmente, pendientes y sombreado—.
En el caso de los modelos matriciales, el error puede considerarse de tres tipos posibles:
•
grandes errores —blunders—; su magnitud excede el máximo error
permitido. Son de naturaleza local y deben ser eliminados completamente
•
errores sistemáticos, que presentan un patrón de distribución concreto e
introducen un sesgo en el MDE. En caso de existir, son predecibles y
pueden ser eliminados o, al menos, reducidos
•
error aleatorio, que permanece tras la eliminación de los anteriores y que
suelen presentar una distribución de Gauss. Este error es global y se
origina en las imprecisiones de los datos originales y en los múltiples
procesos de generalización, interpolación, etc. que se ejecutan en su
construcción
Análisis del error aleatorio
En un MDE matricial, las elevaciones pueden interpretarse como la suma de la altitud real, z, y
un factor de error:
. Los parámetros que definen la distribución del error pueden
deducirse a partir de un conjunto muestral de puntos de control —check points— para los que se
conoce la altitud real.
Los puntos de control se consideran "verdaderos", es decir, medidos sin error, por lo que deben
ser definidos mediante métodos precisos. El método más utilizado es extraer las altitudes de
mapas preexistentes de la mayor escala posible, con la confianza de manejar errores
desconocidos pero moderados. Probablemente el uso de los GPS adquiera aquí pleno sentido, al
permitir establecer un conjunto de puntos de control con precisión conocida y que, en los casos
de usar GPS diferencial, pueden tener una precisión suficiente para el control de calidad.
Valoración del error
El error local en un punto i, ei se define como la diferencia entre la altitud en el MDE y la del
punto de control. Dado un conjunto de n puntos de control, el error medio, EM, para este
conjunto de datos se define como:
El error medio para un conjunto dado de puntos de control tiene interés para comprobar si las
desviaciones del modelo son aleatorias o no. En el primer caso, EM no será significativamente
diferente de cero. Sin embargo, como las desviaciones positivas y negativas se anulan, el EM no
es una medida válida de la calidad del MDE.
Lo más habitual es utilizar el error cuadrático medio, ECM, que se calcula mediante la
expresión:
El uso de estos estadísticos permite una evaluación objetiva de la calidad de los MDE si, del
mismo modo que en el caso de la cartografía convencional, se plantean unas reglas de calidad o
baremos para los MDE. Para la aplicación de un baremo se asume que los grandes errores han
sido corregidos, así como los posibles errores sistemáticos y sólo resta la componente aleatoria.
La influencia de los puntos de control
¿Cuántos puntos de control son necesarios para conocer el error de un MDE? Li (1991) plantea
el concepto de fiabilidad —reliability— del control de calidad, en el sentido de que los
resultados de éste dependen de la calidad y cantidad de los puntos de control. Utilizar un gran
número de puntos requiere asimismo un esfuerzo importante para conseguir fijarlos con
precisión. Debe, por tanto, fijarse un número mínimo de puntos para conseguir una meta de
fiabilidad concreta en el control de calidad. Ley (1986) plantea el uso de 150 puntos para
garantizar que la medida del error tendrá una desviación estándar del 10%. Li (1991) presenta un
análisis teórico más completo y concluye una ecuación general
donde e es la medida del error en términos de desviación estándar —equivalente al ECM cuando
no hay sesgo, es decir, cuando EM=0—; R(e) es la fiabilidad de la medida del error, asimismo en
términos de desviación estándar —el error del error—; finalmente, n es el número de puntos de
control. Para 150 puntos de control, el valor de R(e) es del 6%, similar al propuesto por Ley
(1986).
La muestra mínima necesaria para una fiabilidad R(e) será:
[...]
Por tanto, si se desea evaluar el error con una fiabilidad del 10%, —R(e)=0.10—serán necesarios
51 puntos de control. Inversamente, si se ha obtenido un error de R(e)=25 m con 50 puntos de
control, sabemos la desviación estándar del error es de 2,5 m, un 10% de la medida. En
consecuencia, los límites de confianza del 95% para el error estarán en el rango de 25 ± 1,96 σ:
25 ± 4,9 m.
En la selección de los puntos de control debe tenerse en cuenta que el muestreo debe ser
representativo de las estructuras topográficas presentes en la zona. Por este motivo, el uso de la
red geodésica no es aconsejable ya que los puntos tienden a encontrarse en las cimas y otros
lugares destacados. Sí es posible, en cambio, utilizar la red como apoyo para añadir otros puntos
de control en zonas diferentes o utilizar el método GPS para conseguir una red representativa con
una distribución adecuada.
Análisis de los grandes errores
En ausencia de sesgo, los grandes errores se definen como aquéllos cuya magnitud excede el
triple del ECM.
Como ya se ha indicado, este tipo de errores son esporádicos y de naturaleza local, es decir, se
producen errores que sólo afectan a una pequeña fracción del área total. Las técnicas de
detección y medida suelen ser también locales y se basan generalmente en hipótesis sobre la
continuidad en los valores de la pendiente.
El origen de estos errores puede estar en causas diversas, incluso por los métodos automáticos de
estereocorrelación, que pueden tener problemas debido al bajo contraste de las imágenes, a
ambigüedades por la existencia de texturas periódicas sobre el terreno o a reflejos (Hannah,
1981:63). Cuando los modelos se construyen por transformaciones de archivos vectoriales
previos, los conflictos pueden originarse en errores preexistentes o en el comportamiento de los
algoritmos de interpolación utilizados en zonas problemáticas.
Es posible utilizar métodos puramente visuales para la localización de este tipo de errores
(USGS, 1997). Para ello se realizan representaciones mediante bloques-diagrama, coloreado de
bandas de gradientes hipsométricos, vistas estereoscópicas mediante anaglifos y simulaciones de
iluminación.
Sin embargo, el análisis visual no garantiza un examen exhaustivo y metódico ni puede definirse
claramente un umbral de error, sino que la presencia o ausencia de error queda al criterio
subjetivo del operador. Por este motivo es recomendable usar métodos automáticos donde,
normalmente, un punto se comprueba usando los valores de los puntos más próximos o
"vecinos". Los vecinos se definen mediante una "ventana" superpuesta al modelo, que delimita
una fracción del mismo. En general, las ventanas suelen ser cuadradas —incluyen la misma
cantidad de filas y columnas— y simétricas —el punto problema se sitúa en el centro de la
ventana, lo que implica una dimensión impar—.
En el análisis más simple se calculan las diferencias de altitud entre el punto problema y sus
vecinos. El punto se etiqueta si alguna de estas diferencias exceden un valor máximo
predefinido. Llamando e a la condición de error , se tiene:
.
Analizando el MDE por filas o columnas, si sólo se detecta un valor conflictivo puede suponerse
un punto de ruptura de pendiente. La detección de dos señales de alarma secuenciales es un
indicador de que el punto implicado en ambos cálculos es probablemente erróneo.
Hannah (1981) propone pruebas más completas, basadas en el conjunto de los vecinos más
próximos de cada punto, y utilizando tanto los valores de pendiente como los de cambio de
pendiente. En ellas se utilizan valores umbral para ambos parámetros con el fin de detectar
puntos conflictivos.
Estas pruebas, sin embargo, no tienen un valor estadístico, en el sentido de que no ofrecen una
medida de verosimilitud o probabilidad para el valor de la cota sometida a prueba. En Felicísimo
(1994) se propone un sencillo método que tiene tres propiedades de interés con respecto a los
anteriores:
•
es un método objetivo, donde los umbrales de error se determinan
mediante métodos estadísticos.
•
la probabilidad de que un punto sea erróneo puede conocerse.
•
los valores umbral se deducen de los datos propios del modelo, por lo que
se adaptan a las características del relieve de la zona estudiada —con unos
valores propios de pendiente, rugosidad, etc.—
La base del test reside en el análisis de las diferen cias existentes entre dos valores de altitud para
cada punto: la presente en el MDE —correcta o errónea— y un valor estimado mediante un
proceso de interpolación a partir de las cotas vecinas. Para un punto situado en la fila i, columna
j, el valor interpolado es:
La diferencia entre la cota del modelo y la cota estimada es [...]
El proceso se realiza para el total de los n puntos del MDE y se obtiene la diferencia media y su
desviación estándar: [...]
los valores anteriores definen la función de distribución de las diferencias, una distribución de
Gauss,, que permite realizar un test de significación para los valores individuales de las
diferencia. Con este test se puede aceptar o rechazar la hipótesis de que el valor individual de
desviación observado pertenece a la población de desviaciones. Para ello se utiliza un test de la t
de Student, que debe realizarse para cada punto del modelo calculando el valor del estadístico
mediante la expresión:
El valor anterior se considera una desviación tipificada y se compara su magnitud con el valor
[....]; como el número de datos del modelo digital será habitualmente muy elevado, se usa el
valor infinito para los grados de libertad. El modelo digital constituye la población, por lo cual
los valores que definen la distribución pueden considerarse parámetros poblacionales y no
estadísticos muestrales.
La probabilidad de error de Tipo I puede definirse con el fin de detectar solamente las diferencias
muy significativas. En consecuencia, la condición de error vendrá dada, por ejemplo, por [...] .
La hipótesis nula es
.
La localización de puntos con un valor de t significativamente elevado no implica
necesariamente un error de cota pero es un buen indicador de alarma.
La propagación del error
Las operaciones con números inciertos permiten obtener resultados inciertos. Esta circunstancia
aconseja controlar estrictamente el error cuando las medidas van a ser utilizadas en la
determinación de otras magnitudes a través de procesos de simulación. La influencia del error en
la incertidumbre de un resultado se denomina propagación del error e ignorarlo puede conducir a
dar por válidos resultados que no lo son en absoluto.
Modelo digital de pendientes de una misma zona. El MDP
presenta en el documento original una leyenda con intervalos de
5º;. El error en el MDE puede hacer que estas categorías, y
especialmente las de pendiente menor, sean imprecisas hasta el
punto de invalidar el modelo para algunos usos donde se exige
una valoración precisa de las zonas de poca inclinación.
La influencia del error en los procesos derivados del MDE ha sido mucho menos estudiada que
el error de las fuentes. Los trabajos existentes tienen por objeto llamar la atención sobre los
efectos de la propagación del error en algunas simulaciones, especialmente las relacionadas con
las pendientes y orientaciones del terreno. Sin embargo, los métodos prácticos de "vivir con el
error" en una base de datos cartográfica y de controlar sus efectos de forma general no están aún
claros.
En el caso de la realización práctica de modelizaciones, se han citado tres formas de tratar el
problema de propagación del error (Hunter y Goodchild, 1994:771):
•
omitir toda referencia al mismo
•
proporcionar un descriptor estadístico
•
proporcionar varios productos finales dentro del posible rango de
variación
El primer caso es, sin duda, el más frecuente y la forma más simple de tratar el problema, pero
obviarlo puede tener consecuencias negativas en función de las decisiones que se tomen a partir
de la información defectuosa.
En el segundo caso se presenta información sintética mediante descriptores como las bandas
épsilon, los valores de ECM, etc. Estas medidas pueden poner sobre aviso de la calidad de los
datos por lo que suponen un avance notable sobre la primera actitud. Sin embargo, no dan cuenta
de los posibles efectos del error en el producto final cuando éste es el resultado de una
modelización compleja.
Con el último planteamiento se presentarían diferentes resultados generados dentro del rango de
error real con el fin de ilustrar las variaciones permitidas por la incertidumbre de los datos
originales.
Queda, finalmente, una cuarta opción que la presentación de los resultados clave para una
decisión asociados a su nivel de incertidumbre y no de forma determinística estricta. Por
ejemplo, si es necesario delimitar las zonas con pendiente menor de 5º, el modelo que se presente
puede tener una frontera difusa entre la clase p<5º y el resto, p m 5º con un significado similar a
la banda épsilon.
Las normas de propagación del error no son necesariamente simples, por lo que su solución
analítica puede ser inabordable. Asimismo, dependen estrechamente de los algoritmos utilizados
y, ocasionalmente, pueden cambiar en función de las características del relieve de la zona.
Modelo de pendientes. La aparición de "terrazas" en
el MDP es una señal de alarma sobre la calidad del
MDE o la correcta aplicación de los métodos de
interpolación.
El análisis de sensibilidad
La propagación del error se ha estudiado habitualmente realizando un análisis de sensibilidad del
proceso concreto. El análisis se realiza generando diferentes modelos de error para los datos
originales y estudiando los resultados producidos. Se trata, por tanto, de producir a partir de un
MDE original, otros MDE con diversos grados de distorsión y generar el producto. El análisis de
los resultados pueden conducir a comprender el fenómeno de propagación del error y su
influencia en la calidad del resultado final.
Habitualmente se asume que el error añadido al MDE original debe ser gaussiano y con media
nula —es decir, tener una distribución normal y no presentar sesgo—. En muchos casos este
modelo puede ser correcto pero hay autores que han propuesto también que el error puede
presentar diferentes grados de autocorrelación —ver más adelante—.
En el primer caso el error se asigna a cada punto del MDE mediante un algoritmo generador de
ruido aleatorio. La magnitud del error depende del ECM, para el cual deben ensayarse varios
valores. La altitud en un punto se modifica de acuerdo con la expresión:
donde z i,j es la altitud en el MDE original y z’ i,j es el dato modificado mediante la adición del
componente aleatorio e i,j , el factor de ruido generado de acuerdo con una distribución
N(0,ECM).
Un método de análisis de la sensibilidad de los modelos ante el error es añadir ruido aleatorio al MDE
original y realizar la simulación con los dos modelos. La comparación de los resultados es indicativa de la
robustez del método de trabajo y de la sensibilidad ante los errores.
Por ejemplo, los trazados de la red hidrológica difieren notablemente entre ambos modelos, sin y
con error (arriba y a la derecha respectivamente)
Los métodos de Monte Carlo
Los métodos de Monte Carlo son una potente herramienta de trabajo cuando la solución analítica
del problema es difícil. El método implica:
•
la suposición de las distribuciones de probabilidad de las variables
influyentes y
•
el uso de generadores de números aleatorios para muestrear de forma
simulada la población de sucesos.
A partir de los puntos anteriores es posible generar modelizaciones numéricas del proceso en
número suficiente como para construir empíricamente la función de probabilidad de la variable
resultado.
Los métodos de Monte Carlo han comenzado a ser prácticos y útiles cuando los ordenadores han
estado disponibles de forma generalizada. Los generadores de números aleatorios son rutinas
bien conocidas con las cuales es posible generar series de números cuyas distribuciones pueden
ajustarse a múltiples modelos.
En el caso que se trata aquí, podemos asumir un error gaussiano o con cierto grado de
autocorrelación. Los errores serán añadidos a datos simulados y aplicados los algoritmos que
ejecutan la simulación. De los resultados podemos deducir las características de la propagación
del error.
Felicísimo (1995) aplica este método al análisis de la propagación del error altitudinal al cálculo
de la pendiente. Los pasos seguidos son los siguientes:
•
se genera un MDE con valores de altitud iguales, simulando un terreno
plano
•
se genera un valor de error para cada punto de acuerdo con un distribución
de Gauss N(0,ECM)
•
la altitud de cada punto se altera añadiéndole el valor de error
•
se calcula la pendiente en cada punto de acuerdo con el algoritmo que se
desee utilizar
•
se construye la distribución de los valores de la pendiente resultantes de la
modelización y se compara con la distribución del MDE "real"
Obviamente, la pendiente esperada en ausencia de error es nula ya que el MDE de partida
muestra un terreno plano. Los resultados más notorios son los siguientes:
•
la distribución del error en la pendiente no es de media nula lo que
significa que la construcción de un modelo digital de pendientes a partir de
un MDE infravalora las pendientes bajas proporcionalmente a la magnitud
del error en el MDE
•
el error medio de la pendiente en función del ECM es el siguiente:
ECM
5%
10%
20%
Error
1.4º
2.9º
5.8º
el ECM se establece en porcentaje del tamaño de la malla del MDE; por ejemplo,
para un MDE de 30 m de intervalo entre datos, un ECM del 10% corresponde a 3 m
•
del análisis de frecuencias de error acumuladas, se deducen los siguientes
resultados: para un MDE con ECM=10%, el 50% de los datos tendrán un
error de al menos 2º; el 25% de 3,5º y el 5% de 5º o más
•
un MDE con ECM=20%, el 50% de los datos tendrán un error de al menos
5º; el 25% de 7º y el 5% de 11º o más
•
en el caso de un MDE con pendiente superior a 0º, la influencia del error
disminuye proporcionalmente a la misma
Diagrama de síntesis con los resultados del error en tres zonas de diferente relieve (ver texto)
El efecto de la autocorrelación
Cuando la distribución espacial del error en el MDE no es completamente aleatoria —aunque
pueda serlo su distribución estadística—, interviene un nuevo factor: la intensidad de la
autocorrelación.
Hunter y Goodchild (1994) analizan el efecto de la correlación del error en la estimación de la
radiancia normalizada, L(h). Para ello generan errores de altitud para valores de correlación r
entre 0 —correlación nula— y 0,245. Los MDE resultantes son utilizados para la estimación de
valores de reflectancia mediante el cálculo del ángulo de incidencia de un vector solar dado
sobre la superficie. El MDE original tiene 30 m de luz y se le ha estimado un ECM real de 10 m.
Manteniendo el ECM constante, se muestra que tanto el error medio como la desviación estándar
de la radiancia normalizada aumenta ligeramente en el rango 0 < r < 0,20 para disminuir
rápidamente si la correlación aumenta.
Dado que el rango de L(h) no se aporta en el trabajo, es imposible establecer comparaciones
relativas. En el caso de que el rango de variación de L(h) sea 0-255 como es habitual, la
desviación estándar máxima observada —13 unidades— correspondería a un 5% en términos
relativos.
Canters (1994:176) indica también que cuando el error presenta cierto grado de autocorrelación,
las consecuencias sobre el producto final son menos graves que cuando el error es estrictamente
gaussiano. Canters analiza la influencia del error en el cálculo de la pendiente en un modelo TIN
e indica que existe una alta sensibilidad ante la autocorrelación. Encuentra que si el error de
altitud está correlacionado, los errores en la pendiente son menores —lo cual no es
especialmente sorprendente—. Señala, en consecuencia, que ignorar la autocorrelación en la
propagación del error puede suponer una seria sobreestimación del error en los resultados.
Canters resalta asimismo la dependencia entre la pendiente del terreno y el error en el mismo
sentido que el señalado anteriormente: el error aleatorio influye en menor grado en zonas de
fuerte pendiente que en zonas llanas.
El error y el relieve
En las simulaciones anteriores se han supuesto unos valores de ECM constantes para todo el
modelo de elevaciones, a partir de la cuales se han realizado las simulaciones en todos los casos.
Los análisis realizados sobre MDE reales indican, sin embargo, que existe una dependencia entre
el ECM y la morfología del terreno que no debe ser obviada en las modelizaciones. En
Felicísimo (1994:70) se muestran los resultados de analizar en error en 3 zonas de la serie
MDT200 del Instituto Geográfico Nacional. Los modelos de esta serie están generados a partir
de mapas de isohipsas con 100 m entre curvas de nivel y presentan una luz de 200 m.
Las zonas seleccionadas presentan valores de pendiente diferentes y corresponden a zonas
topográficamente muy distintas:
Zona
Topografía
P media
1
Rasa litoral, antigua plataforma de abrasión marina
1º
2
Modelado fluvial en zona de media montaña
10º
3
Modelado glaciar e intensa actividad kárstica en alta montaña
22º
La estimación del error se ha realizado por comparación con mapas topográficos 1:25.000. Los
puntos de control han sido los vértices de la cuadrícula UTM de 1km —salvo los puntos sobre el
mar—.
Los resultados se muestran en la tabla siguiente —EM: error medio; entre paréntesis, el error
estándar de la media—:
Zona
Puntos de control
EM
ECM
1
113
16 (3.1)
37
2
113
-5 (4.2)
47
3
126
2 (5.9)
67
Los estadísticos resultantes muestran dos circunstancias de interés:
•
el error medio es significativamente diferente de cero en la Zona 1, lo que
indica un sesgo: las altitudes están sobrevaloradas con respecto a la
realidad
•
el ECM aumenta perceptiblemente con la pendiente media de la zona,
circunstancia ya descrita por otros autores (Hutchinson, 1991:47); en la
Zona 3 alcanza el 33% del tamaño de malla
Diagrama con los resultados del análisis de propagación del error en la creación
del modelo digital de pendientes (ver texto)
La consecuencia previsible de este efecto es que, aunque puede darse un valor de ECM para una
zona amplia, la magnitud real del error será previsiblemente diferente si esta zona contiene
regiones con diferentes características topográficas. Los análisis sobre la propagación del error
podrán, por tanto, incorporar esta dependencia entre el error y el relieve para mejorar los
modelos.
FIN DEL CAPÍTULO
Fly UP