影像所表示内容(要素/现象)的细节层次通常取决于影像的像素(像元)大小或空间分辨率。 像元必须足够小,这样才可以捕获到所需的细节,同时像元又必须足够大,这样才便于计算机存储并提高分析效率。 像素较小的影像可以表示地面上更多数量的对象、体积更小的对象或地面要素范围内的更多细节。 但是,较小的像素大小会导致用于表示整个区域的栅格数据集更大。 这需要更大的存储空间,通常还会使处理时间更长。
在选择合适的像素大小时,需要平衡所需的空间分辨率(基于待分析地面要素的制图单位)与显示速度、处理时间和存储空间的实际要求。 实际上,GIS 中结果的精度仅与精度最低的数据集一致。 如果您使用从 30 米分辨率卫星影像派生的分类数据集,则可能不需要使用数字高程模型 (DEM) 或其他更高分辨率(例如 10 米)的辅助数据。 对于关键变量(例如地形和土地覆盖)而言,区域同质性越高,像元就可以越大,而不会影响精度。
在规划基于遥感的应用程序时,确定适当的像素大小与确定要获取哪些数据集一样重要。 可以对影像数据集进行重采样以得到更大的像素大小;但是,将影像重采样为具有更小的像素大小并不会增加细节。 您可以以最小且精度最高的像素大小存储数据的副本,同时对其进行重采样以匹配最大且精度最低像素大小。 这可能会提高分析的处理速度。
指定像素大小时,请考虑以下内容:
- 输入数据的空间分辨率
- 应用场景以及要基于最小制图单位执行的分析
- 与磁盘容量相比,结果数据库的大小
- 响应时间
使用影像栅格数据时,有四种类型的分辨率:空间分辨率、光谱分辨率、时态分辨率和辐射分辨率。
在 GIS 中,影像数据集的空间分辨率很重要,尤其是在显示栅格数据或将栅格数据与其他数据类型(例如矢量)进行比较时。 在这种情况下,分辨率是指像素大小,即覆盖在地面上并由单个像素表示的区域。 更高的空间分辨率意味着每单位面积内包含更多的像素。 您可使用更高的空间分辨率解析和分析较小的地面对象。 下方的第一个图形表示比第三个图形更高的空间分辨率。
光谱分辨率描述传感器区分电磁波谱中波长间隔的能力。 光谱分辨率越高,特定波段的波长范围就越窄。 需要考虑的其他因素包括覆盖电磁波谱间隔的波段的数量和位置。 例如,一个单波段灰度航空影像记录的波长数据范围覆盖了电磁波谱中的大部分可见部分;因此,它的光谱分辨率较低。 相反,高级多光谱和高光谱传感器可从电磁波谱各个部分的多达数百个窄光谱波段中采集数据,因而得到的数据具有非常高的光谱分辨率。 例如,WorldView-3 卫星传感器在 8 个可见光和近红外波段以 0.31 米分辨率(全色)和 1.24 米分辨率采集影像,并在 8 个短波红外波段以 3.7 米分辨率采集影像。
时态分辨率是指在地球表面的同一位置捕获影像的频率,也称为重访周期,这是提及卫星传感器时最常用的术语。 例如,每周捕获一次数据的传感器比每月捕获两次数据的传感器具有更高的时间分辨率。
辐射分辨率可描述传感器在电磁波谱的同一部分中对所查看对象的分辨能力。 这与每个波段中可能的数据值数量同义。 影像的位数越多,可以检测并测量的对象之间的差异就越多。 例如,Landsat-8 短波红外波段通常是 12 位数据,WorldView-3 (WV-3) 短波红外波段是 14 位数据;因此,WV-3 数据具有更高的辐射分辨率。
空间分辨率是指表示地面覆盖区域的像素大小。 例如,如果被一个像素覆盖的区域为 5 x 5 米,则分辨率为 5 米。 影像的分辨率越高,像素大小就越小,细节层次越高。 这与比例相反。 比例越小,显示的细节就越少。 例如,以比例 1:2,000 显示的正射影像(外观放大)会比以比例 1:24,000 显示的影像(外观缩小)更加详细。 但是,如果同一正射影像的像素大小为 5 米,则不管采用何种显示比例,分辨率将保持不变,因为物理像素大小(覆盖在地面上的由单个像元表示的区域)并未发生改变。
下面第一个影像的比例 (1:50,000) 小于第二个影像的比例 (1:2,500);但是,数据的空间分辨率(像元大小)相同。
下方第一个影像数据的空间分辨率低于第二个影像数据的空间分辨率。 这表示第一个影像数据的像素大小大于第二个影像数据的像素大小,但使用的显示比例相同。