Cuando se trata de rasters de diferentes resoluciones, ¿se debe volver a muestrear a la resolución más alta o más baja?

15

Estoy buscando recomendaciones sobre las mejores prácticas para tratar con capas de datos ráster con diferentes resoluciones y proyecciones. El consejo que me dieron es que siempre vuelva a muestrear la capa con la resolución más baja antes de realizar cualquier análisis, pero esto me parece una gran pérdida de precisión y nunca se me ha dado una explicación sólida de por qué debería hacerse.

¿Cuándo es razonable volver a muestrear para que coincida con una cuadrícula de mayor resolución y cuáles son las implicaciones en comparación con el remuestreo a una resolución más baja?

Me doy cuenta de que esto es muy dependiente de la situación. Principalmente busco pautas generales, pero aquí está mi escenario específico para referencia:

Escenario: Estoy buscando construir un modelo de regresión espacial que prediga el uso del suelo basado en una variedad de niveles ambientales y socioeconómicos. Mi mapa de uso de la tierra es derivado de Landsat y por lo tanto resolución de 30m. Los ejemplos de capas explicativas incluyen SRTM DEM (3 segundos de arco, ~ 90m) y Bioclim capas climáticas (30 segundos de arco, ~ 1 km).

    
pregunta Matt SM 27.04.2014 - 23:30

1 respuesta

15

En realidad, no es tan dependiente de esa situación y se trata de un error estadístico.

Cada vez que vuelve a muestrear a una resolución más alta, está introduciendo una precisión falsa. Considere un conjunto de datos medidos en pies solo en números enteros. Cualquier punto dado puede ser +/- 0.5 pies desde su ubicación real. Si vuelve a muestrear a la décima más cercana, ahora está diciendo que cualquier número dado no está a más de +/- 0.1 de su ubicación real. Sin embargo, sabe que sus mediciones originales no eran tan precisas, y ahora está operando dentro del margen de error. Sin embargo, si va por el otro camino y vuelve a muestrear a la resolución más baja, sabrá que cualquier valor de puntos dado es definitivamente preciso porque está contenido dentro del margen de error de la muestra más grande.

Fuera de las matemáticas estadísticas, el primer lugar en el que se me ocurre esto es en la topografía. Las encuestas más antiguas solo especificaban los rumbos hasta el medio minuto más cercano y las distancias hasta la décima parte del pie. El trazado de un recorrido del límite con estas mediciones a menudo puede resultar en un cierre incorrecto (el punto inicial y el punto final deben ser iguales pero no se miden) en pies. Las encuestas modernas van por lo menos al segundo y centésimo de pie más cercano. Los valores derivados (como el área de un lote) pueden verse significativamente afectados por la diferencia en la precisión. El valor derivado en sí también se puede dar como demasiado preciso.

En su caso de análisis, si vuelve a muestrear a la resolución más alta, sus resultados implicarán una precisión mucho mayor que los datos en los que se basan. Considere su SRTM a 90m. Por cualquier método que midan la elevación (promedio / máximo / retorno promedio), la unidad más pequeña (píxel) que se puede diferenciar de sus vecinos es 90 m. Si vuelve a muestrear eso a 30 m, cualquiera de los dos:

  • usted asume que los nueve píxeles resultantes tienen la misma elevación cuando están en la verdad, tal vez solo una (el centro o la esquina superior izquierda) (¡o ninguna!) es
  • Interpola entre píxeles, creando valores derivados no presentes. antes

Por lo tanto, en ambos casos introduce una precisión falsa porque sus submuestras nuevas no se midieron realmente.

Pregunta relacionada: ¿Qué prácticas están disponibles para modelar la idoneidad de la tierra? ?

    
respondido por el Chris W 28.04.2014 - 00:22

Lea otras preguntas en las etiquetas