Red tide detection using GF-1 WFV image based on deep learning method
-
摘要: 赤潮是我国主要的海洋生态灾害,有效监测赤潮的发生和空间分布对于赤潮的防治具有重要意义。传统的赤潮监测以低空间分辨率的水色卫星为主,但是其对于频发的小规模赤潮存在监控盲区。GF-1卫星WFV影像具有空间分辨率高、成像幅宽大和重访周期短等优点,在小规模赤潮监测中表现出较大的潜力。然而,GF-1卫星WFV影像的光谱分辨率较低,波段少,传统面向水色卫星的赤潮探测方法无法应用于GF-1卫星WFV数据。而且赤潮具有形态多变、尺度不一的特点,难以精确提取。基于此,本文提出了一种面向GF-1卫星WFV影像的尺度自适应赤潮探测网络(SARTNet)。该网络采用双层主干结构以融合赤潮水体的形状特征与细节特征,并引入注意力机制挖掘不同尺度赤潮特征之间的相关性,提高网络对复杂分布赤潮的探测能力。实验结果表明,SARTNet赤潮探测精度优于现有方法,F1分数达到0.89以上,对不同尺度的赤潮漏提和误提较少,且受环境因素的影响较小。Abstract: Red tide is a major marine ecological disaster in China. Effectively monitoring the occurrence and spatial distribution of red tide is of great significance for their prevention and control. Traditional red tide monitoring is mainly conducted by watercolor satellites with low spatial resolution. However, there are monitoring blind areas for frequent small-scale red tides. GF-1 WFV remote sensing images, featuring high spatial resolution and a wide imaging range, can be used to monitor small-scale red tides. However, the traditional method for watercolor satellites cannot be used for GF-1 WFV satellite data as GF-1 WFV remote sensing images are characterized by low spectral resolution and few bands. And it is hard to extract the information about red tide as they differ in both shape and scale. Due to diverse shapes of the red tide distribution, this paper proposes a scale-adaptive red tide detection network (SARTNet) for GF-1 WFV sensing images. This network adopts a two-layer backbone structure to integrate the shape and detail features of red tide and introduces an attention mechanism to model the correlation between features of red tides at different scales, thereby improving its performance in detecting red tides that are complexly distributed. The experimental results show that the red tide detection performance of SARTNet is better than that of the existing methods, with an F1 score above 0.89; and it is less affected by environmental factors, with few missing and misstated pixels for red tide information at different scales.
-
Key words:
- red tide detection /
- GF-1 WFV /
- deep semantic segmentation /
- attention mechanism /
- multi-scale
-
1. 引言
赤潮,也被称为有害藻华,是我国主要的海洋生态灾害[1]。随着近岸水体富营养化的加剧,赤潮发生频率不断升高,其产生的影响也不断增加[2]。因而,开展赤潮的有效监测具有重要的意义。而赤潮发生具有空间分布广、变化速度快等特点,现场观测费时费力,无法满足赤潮监测的时效性要求。卫星遥感具有实时、大范围和连续观测的优势,已成为监测赤潮的重要手段[3-4]。
一直以来,赤潮遥感监测以高光谱、低空间分辨率的水色卫星为主,发展了面向水色卫星的系列赤潮探测方法。毛显谋和黄韦艮[5]提出了多波段差值比值法,应用于SeaWiFS和FY-1传感器,该方法可以排除悬浮泥沙对赤潮水体信息的干扰。王其茂等[6]利用MODIS第3通道(459~479 nm)和第4通道(545~565 nm)的遥感信息比值建立赤潮提取方法。Ahn和Shanmugam[7]提出赤潮指数(RI)法,采用以443 nm、510 nm和555 nm为中心的3个SeaWiFS波段的离水辐射率来计算RI指数。然而,赤潮往往呈条带状分布,条带宽度从几米到几十千米不等,低空间分辨率的水色卫星数据无法对窄条带的小规模赤潮进行监测。随着高空间分辨率对地观测技术的发展,大批高空间分辨率卫星发射升空,高分辨率数据时空覆盖率大幅提高,可满足赤潮业务化监测数据需求。因此,高空间分辨率卫星正越来越多地应用于赤潮监测[8-9]。作为我国高分辨率对地观测系统的首发星,GF-1卫星搭载了幅宽为800 km、空间分辨率为16 m的多光谱宽幅相机(WFV),具有大幅宽和重访周期短的优势,有利于赤潮的精细监测[10]。但GF-1 WFV卫星传感器光谱分辨率低,波段少,传统的水色卫星赤潮探测方法无法应用。目前针对高分辨率遥感数据的赤潮探测方法研究相对较少,主要基于赤潮水体光谱特性和叶绿素浓度异常进行探测。Yunus等[11]利用Landsat OLI传感器的卫星反射率数据,通过反演东京湾水域叶绿素a浓度进行赤潮探测。Rahman和Aslan[12]基于赤潮独特类胡萝卜素光色素的反射特性,利用Landsat 8的两个蓝光波段进行赤潮探测。Liu等[13]建立了面向GF-1 WFV的赤潮光谱探测指数。Liu等[14]提出一种基于伪色度的高分辨率宽波段遥感影像赤潮探测方法,利用近红外、红和绿光波段计算色度角,并根据色度角判断是否发生赤潮。然而,GF-1 WFV光谱分辨率较低,易受水体环境影响,对于光谱特征不明显的赤潮分布边缘区以及噪声较多的赤潮影像无法实现准确探测。
近年来,深度语义分割网络模型在遥感影像智能解译中取得了显著成效[15-16]。深度学习方法能够充分挖掘卫星影像潜在的光谱、纹理及特征,有效降低分类过程中产生的椒盐噪声,具有较好的样本容错能力[17]。姜宗辰等[18]利用深度置信网络模型,基于机载高光谱遥感数据开展了赤潮探测。李敬虎等[19]提出了一种基于深度学习和无人机遥感影像的夜光藻赤潮提取方法。Lee等[20]基于ResNet网络模型和GOCI影像数据,结合高损失样本挖掘法开展了赤潮提取研究。Zhao等[21]提出了一种基于U-Net卷积神经网络的HY-1D卫星CZI数据赤潮探测方法。上述研究证明了深度学习方法在赤潮探测中的可行性。但是由于卫星传感器的差异,上述面向HY-1D CZI和GOCI等卫星数据的深度学习方法无法应用于GF-1卫星WFV数据。基于深度学习的GF-1卫星赤潮遥感探测的研究工作有待开展。
基于此,本文提出了一个面向GF-1卫星WFV影像的赤潮深度学习探测模型SARTNet,该模型采用编−解码器结构对赤潮影像进行像素级的分类。并针对赤潮水体空间分布复杂,尺度变化较大的特点,提出了自适应尺度提取(Adaptive Scale Extraction Module, ASE)模块。
2. 研究区与数据
2.1 研究区
本文研究区域有两个,研究区I位于珠江三角洲临近的阳江市海陵岛北部(21°39'~21°44'N,112°02'~112°07'E);研究区II位于江门市下川岛南部(21°29'~21°36'N,112°34'~112°41'E)。两个研究区都位于珠江三角洲,该区域是中国经济发展最快的三大经济单元之一,工业化、城镇化发展迅速,陆域活动的影响直接导致近海水质下降和富营养化,赤潮灾害频繁发生。据研究报道[13-14],研究海域于2014年11月22日至26日发生夜光藻赤潮,2020年4月28日该海域再次发生夜光藻赤潮。两次赤潮分布面积均较小,分别为11 km2和2.8 km2,且均呈条带状分布。
2.2 数据
GF-1卫星是我国高分辨率对地观测系统的第一颗卫星,载有幅宽为60 km的2 m全色/8 m多光谱分辨率相机PMS,以及幅宽为800 km的16 m多光谱宽覆盖相机WFV[22],传感器参数如表1所示。
表 1 GF-1 WFV影像参数Table 1. GF-1 WFV image parameters参数 多光谱宽幅相机 波长范围 0.45~0.52 μm 0.52~0.59 μm 0.63~0.69 μm 0.77~0.89 μm 空间分辨率 16 m 幅宽 800 km 重访周期 2 d GF-1卫星具有高空间分辨率、大幅宽和高重访周期的优势,正越来越多地应用于海洋监测[23-25]。另外,我国又相继发射了GF-1B、GF-1C和GF-1D等GF-1后续星,数据的时空覆盖率大大提高,能够满足赤潮业务化监测的数据需求。本文选取了赤潮发生期间云覆盖较少的GF-1卫星WFV影像,卫星数据覆盖区域如图1所示。
为了开展方法研究,本文获取了上述两次赤潮发生期间的GF-1 WFV2影像2景,成像时间分别为2014年11月22日11时37分(图2)和2020年4月28日11时17分(图3)。另外,为了检验模型的泛化能力,本文还获取了海陵岛北部海域2014年11月22日GF-1 WFV3遥感影像1景,以及2020年5月15日连云港东部海域GF-1 WFV4卫星影像1景。
为了确保模型检验的有效性,本文对赤潮影像进行了划分,选取图2b和图3b黄色实线框中的赤潮影像制作训练数据集,进行模型的训练;选取图2b和图3b黄色虚线框中的赤潮影像作为独立测试图像,进行模型的精度评估。
2.3 样本制作
模型的训练和评估都需要高精度的真值样本,而目前尚未有针对赤潮探测的公开数据集。基于此,本文在赤潮高分卫星影像的基础上,采用目视解译的方式提取了赤潮信息,并生成真值图(白色区域代表赤潮,黑色区域代表非赤潮)(图4)。
在赤潮真值提取的基础上,进行样本制作。为了减少训练过程中图像尺寸过大带来的计算压力,将卫星影像以及对应的真值图裁切为64 × 64大小的图像,共获得130个样本。在此基础上,通过旋转(0°、90°、180°、270°)和水平翻转操作对样本集进行扩充,共获得1 040个样本,其中660个样本包含赤潮信息,380个样本不包含赤潮。在模型训练过程中,本文采用十次十折交叉验证方法进行模型的精度评估,每一折的训练样本数为936个,验证样本数为104个。
3. 方法
3.1 赤潮探测深度学习模型
本文针对赤潮水体形态多变、尺度不一的特点,提出了一种新的赤潮遥感探测深度学习模型—尺度自适应赤潮探测网络(Scale Adaptive Red Tide Network,SARTNet),SARTNet总体架构如图5所示。
SARTNet模型采用编−解码器结构[26],其中编码器部分借鉴了DFANet[27]中的层次主干网络思想,在更大限度地利用多尺度感受野的同时,减少细节信息的丢失。第一层主干网络初步提取赤潮语义信息,确定赤潮的形态和分布范围;第二层主干网络在此基础上进一步挖掘赤潮空间关系[28],并结合跳跃连接[29]进一步提取赤潮细节信息,增强网络的学习能力。解码器部分将两层主干网络中的深层和浅层特征上采样至输入图像大小,并通过拼接和多层卷积操作使网络充分融合上下文信息,提高赤潮特征表示能力。
每层主干网由多个卷积层、池化层和一个自适应尺度提取模块组成。其中,每个卷积层包含卷积、批标准化(Batch Normalization,BN)和ReLU激活3个操作。卷积操作的卷积核大小为3
$ \times $ 3,卷积核滑动时横向和竖向步长都为1,并采用复制边缘填充。BN操作把卷积操作的输出值标准化为均值为0、方差为1的正态分布,避免梯度消失和梯度爆炸的问题发生。ReLU激活函数将特征值进行非线性化处理,为模型提供非线性建模能力。每个池化层采用池化率为2的最大池化操作,通过下采样操作扩大感受野,提高模型的鲁棒性。为了获得更大感受野和更多尺度的语义信息,每层主干网最后还添加了采用多分支池化结构的ASE模块。3.2 自适应尺度提取模块
赤潮分布的形态和尺度变化较大,同等对待不同尺度的信息会干扰特征表示[30],因此本文在主干网络的第3个双卷积操作后增加了一个ASE模块,以提取赤潮多尺度特征并自适应强化不同尺度的信息,让网络能够学习和适应赤潮形态和尺度的变化。ASE模块的结构如图6所示。
ASE模块由多尺度特征提取和注意力机制两部分组成。多尺度特征提取部分借鉴了PSPNet[31]中的金字塔池化模块,首先通过池化率分别为2、4、8的池化操作获取不同尺度的特征图,并在每个池化操作后加入卷积核大小为
$ 1\times 1 $ 的卷积操作,将特征图的通道数降为$ C/4 $ ,保证各尺度信息的比例平衡,实现跨通道的信息组合并增加非线性特征。然后,对低维特征进行上采样操作,通过双线性插值将低维特征图恢复至原始大小。最后,通过$ 1\times 1 $ 的卷积将输入特征图通道数目降为$ C/4 $ ,并与其他3个上采样后的特征图进行拼接。注意力机制[32]部分通过建模各通道信息间的相互依赖关系自动判定每个通道的权重,实现在通道维上对多尺度特征的重加权。4. 实验结果与分析
4.1 实验设置与训练策略
本文采用Keras框架设计网络,使用配置有NVIDIA Tesla P100 GPU显卡的工作站进行训练,采用Adam作为优化器,其中初始学习率为0.000 1,批处理大小为2,采用十次十折交叉验证,训练轮数为100,模型的损失函数为二元交叉熵。
4.2 评价准则
本文基于混淆矩阵对赤潮探测精度进行评价,采用的评价指标包括:精确率(Precision)、召回率(Recall)和F1分数(F1-score),各指标计算公式如下:
$$ \mathrm{P}\mathrm{r}\mathrm{e}\mathrm{c}\mathrm{i}\mathrm{s}\mathrm{i}\mathrm{o}\mathrm{n}=\frac{\mathrm{T}\mathrm{P}}{\mathrm{T}\mathrm{P}+\mathrm{F}\mathrm{P}}\text{,} $$ (1) $$ \mathrm{R}\mathrm{e}\mathrm{c}\mathrm{a}\mathrm{l}\mathrm{l}=\frac{\mathrm{T}\mathrm{P}}{\mathrm{T}\mathrm{P}+\mathrm{F}\mathrm{N}}\text{,} $$ (2) $$ {\mathrm {F\text{1-score}}}=\frac{2\times \mathrm{Precision}\times \mathrm{Recall}}{\mathrm{Precision}+\mathrm{Recall}} $$ (3) 式中,TP、FN和FP分别表示赤潮像素被正确识别的数量(真正例)、赤潮像素被误识别为海水的数量(假负例)和海水像素被误识别为赤潮的数量(假正例)。
4.3 实验结果
4.3.1 模型训练结果
将样本输入SARTNet模型中进行迭代训练,得到随迭代次数变化的训练和验证损失曲线,如图7所示。
从图7中可以看出,模型训练集的损失值随迭代次数的增加快速下降;验证集的损失值波动较大,呈下降趋势,后逐渐趋于平稳。说明初始学习率设置较为合理,损失函数实现快速收敛,网络进行了有效学习。
4.3.2 不同方法赤潮探测结果对比
基于GF-1 WFV影像赤潮样本,本文开展了SARTNet赤潮探测实验,并与传统的基于光谱特征的GF-1 WFV赤潮探测算法GF1_RI以及深度学习方法PSPNet、U-Net[33]、DeepLabv3+[34]进行了对比分析。
结果显示,SARTNet能够很好地提取赤潮信息,漏提和误提现象较少,对噪声不敏感。相比较而言,基于卷积神经网络的方法表现要优于GF1_RI方法。GF1_RI方法在赤潮分布边缘区或零星分布区的赤潮出现了漏提现象(图8a),而且该方法对图像噪声较敏感,导致某些海水像素被误识别为赤潮(图8b)。PSPNet采用金字塔池化模块聚合多尺度的上下文信息,降低了噪声的影响,提高了对赤潮边缘区的提取精度,但对零星分布的赤潮容易漏提(图8)。U-Net使用了编−解码器结构,解码器部分在每一层上采样后与浅层特征进行拼接,减少了细节信息的丢失,提高了对零星及边缘赤潮的提取能力,但拼接浅层特征也会受到噪声信息的影响,使得提取结果中存在较多的误提(图8)。DeepLabv3+通过ASPP(Atrous Spatial Pyramid Pooling)模块获取多尺度信息,提取结果受影像噪声影响较小,但是对零星分布赤潮或赤潮边缘区会出现漏提(图8)。
除定性分析外,本文还对赤潮探测精度进行了定量评估(表2),基于独立检验数据的评估表明SARTNet赤潮探测平均F1分数为0.89,优于其他方法。相比较而言,基于深度学习方法的赤潮探测方法精度普遍较高,F1分数都优于0.80,优于GF1_RI方法。此外,SARTNet模型参数量为5.01 M,远小于其他对比深度学习方法。
表 2 不同方法赤潮信息提取的定量结果Table 2. Quantitative results of red tide information extraction by different methods方法 精确率/% 召回率/% F1分数 参数量/M 研究区I GF1_RI 67.64 80.77 0.73 − U-Net 84.32 91.32 0.87 31.02 PSPNet 91.94 83.62 0.87 23.60 DeepLabv3+ 88.41 85.41 0.86 12.04 SARTNet 88.81 90.87 0.89 5.01 研究区II GF1_RI 79.48 60.40 0.68 − U-Net 78.80 80.47 0.79 31.02 PSPNet 84.01 83.91 0.83 23.60 DeepLabv3+ 87.01 81.82 0.84 12.04 SARTNet 91.09 87.29 0.89 5.01 注:加粗数据代表同列数据最大值。 4.4 ASE模块效果分析
ASE模块融合了通过不同池化率获取的特征,这些特征中包含不同尺度的赤潮信息,为了验证其有效性,本节将ASE模块获取的不同尺度特征图进行可视化输出(图9)。
结果显示,ASE通过不同池化率可以有效获取不同尺度的赤潮信息。大尺度特征图是由池化率为8的池化操作得到,该特征图无法为赤潮探测提供细节信息,却能提供赤潮的轮廓特征(图9a);中尺度特征图是由池化率为4的池化操作得到,该特征图包含较多的细节信息(图9b);小尺度特征图是由池化率为2的池化操作得到,该特征图细节信息更加清晰(图9c)。
4.5 消融实验
为了验证ASE模块以及双层次主干编码器的有效性,本文对SARTNet模型进行了消融实验,每项实验的结果采用两个研究区结果的均值(表3)。
表 3 ASE模块消融实验结果Table 3. ASE module ablation experimental resultsASE 精确率/% 召回率/% F1分数 无 88.89 86.50 0.87 有 90.01 89.08 0.89 由表3可知,SARTNet在添加ASE模块后,模型的精确率和召回率都得到了提升,F1分数从0.87提升到了0.89,证明了ASE模块的有效性。
为了验证主干网层数对赤潮探测效果的影响,本文对SARTNet的不同层数主干网进行了消融实验(表4)。其中,SARTNet-N代表使用N层主干网络赤潮探测精度。
表 4 不同层次主干对赤潮信息提取的定量结果Table 4. Quantitative results of red tide information extraction at different levels主干层次 精确率/% 召回率/% F1分数 SARTNet-1 91.79 85.44 0.88 SARTNet-2 90.01 89.08 0.89 SARTNet-3 88.49 88.50 0.88 由表4可知,当SARTNet采用单层主干网时,精确率最高,但召回率却是最低,这说明了采用单层主干网编码器时有更多的赤潮被预测为海水。当SARTNet采用两层主干编码器时,其召回率、F1分数都达到了最优,分别为89.08%和0.89。当SARTNet采用3层主干网编码器时,召回率和F1分数两个指标都超过了单层主干网编码器,但是却低于采用两层主干编码器。为了进一步分析,本文获取了SARTNet各层主干网输出的特征图(图10)。
由图10可以看出,SARTNet-1提取的赤潮轮廓特征最明显,SARTNet-2在SARTNet-1特征提取的基础上,进一步提取赤潮的细节信息,获取更多的赤潮纹理和边缘信息。而随着主干网层数的增加,SARTNet-3输出的特征图变得不清晰,赤潮特征不明显,这是由于过多的池化操作导致第三层主干中的特征图感受野过大,无法为赤潮探测提供有用的信息。由此可以看出,双层以上的主干网络对最终的赤潮探测贡献较小,甚至会影响赤潮信息提取,而单层和双层主干网络输出特征图中均包含较多的赤潮特征信息,能够更好地定位赤潮位置以及细节信息。因此,SARTNet模型采用双层次主干网络。
5. 讨论
5.1 GF-1 WFV影像赤潮探测机理
GF-1 WFV传感器不同于水色卫星传感器,只设置了蓝、绿、红和近红外4个宽波段,缺少赤潮探测的敏感波段。但是有研究表明[14-15],赤潮发生时,海水叶绿素a浓度急剧升高,引起太阳激发的叶绿素荧光增强,进而导致GF-1 WFV红光波段和近红外波段响应的升高。为了进一步分析,本文从GF-1 WFV影像上获取了赤潮水体和非赤潮水体样本,分析了其光谱响应差异(图11)。结果显示,GF-1 WFV遥感影像赤潮水体和非赤潮水体具有明显不同的响应,特别是在红光波段和近红外波段具有较强的响应。基于此,本文将GF-1 WFV多个波段数据作为深度学习模型输入,以充分利用各波段对于赤潮水体的敏感信息。
5.2 波段指数对赤潮探测的影响
为了评估波段指数对赤潮探测的影响,本文基于GF-1 WFV遥感影像,分别计算了归一化植被指数(NDVI)[35]和GF1_RI指数,并将NDVI、GF1_RI指数和4个波段辐亮度作为模型输入,对SARTNet模型进行了训练和测试(图12)。
实验结果显示(表5),添加NDVI指数,会导致测试结果中出现大量漏提,F1分数为0.71;添加GF1_RI指数对赤潮信息提取结果的影响较小;同时添加GF1_RI和NDVI指数会出现较多漏提。从上述结果看,NDVI和GF1_RI指数的添加对实验结果没有明显提升。因此,本文选择GF-1 WFV 4波段辐亮度数据用于模型的训练和测试。
表 5 输入不同数据的定量结果Table 5. Quantitative results of experiments with different band settings波段设置 精确率/% 召回率/% F1分数 4波段 88.81 90.87 0.89 4波段+NDVI 87.08 60.45 0.71 4波段+GF1_RI 87.54 91.65 0.89 4波段+GF1_RI+NDVI 87.17 67.91 0.76 5.3 模型泛化能力分析
为了验证SARTNet网络模型的泛化能力,本文利用海陵岛北部海域2014年11月22日GF-1 WFV3遥感影像以及连云港东部海域2020年5月15日GF-1 WFV4遥感影像,开展了不同GF-1 WFV传感器、不同区域、不同时间赤潮探测实验,以研究模型的适用性。
结果显示,SARTNet具有较好的适用性,在海陵岛北部海域GF-1 WFV3遥感影像和连云港东部海域GF-1 WFV4遥感影像的赤潮探测中都达到了较高的精度(图13),其F1分数分别为0.89和0.88(表6)。
表 6 模型适用性分析实验结果Table 6. Experimental results of model applicability analysis影像 精确率/% 召回率/% F1分数 GF-1 WFV3影像 91.37 86.70 0.89 GF-1 WFV4影像 89.16 87.05 0.88 6. 结论
本文针对GF-1 WFV高分辨率遥感影像的赤潮探测,发展了基于深度学习的赤潮探测模型SARTNet。该模型采用编−解码器网络结构,编码器部分采用双层主干网结构以融合不同尺度赤潮特征,解码器部分采用拼接和多层卷积操作以融合多级上下文信息,对赤潮影像进行预测。针对赤潮水体空间分布复杂,尺度变化较大的问题,提出了自适应尺度提取(ASE)模块,建模不同尺度赤潮特征之间的相关性,使网络能够学习和适应赤潮形态和尺度的变化。实验结果表明,SARTNet能够有效进行赤潮探测,赤潮探测平均F1分数为0.89,明显优于赤潮探测指数方法GF1_RI以及深度学习方法PSPNet、U-Net和DeepLabv3+,且具有较强的泛化能力。
本文所提出的赤潮深度学习探测模型能够充分挖掘赤潮高分辨率卫星响应特征,实现GF-1 WFV影像赤潮高精度提取,且具有较好的泛化性,无需探测阈值,为赤潮遥感探测的业务化应用提供了一种新思路。未来,需收集多源赤潮高分辨率卫星数据,将该模型扩展到其他高分辨率卫星数据上。
-
表 1 GF-1 WFV影像参数
Tab. 1 GF-1 WFV image parameters
参数 多光谱宽幅相机 波长范围 0.45~0.52 μm 0.52~0.59 μm 0.63~0.69 μm 0.77~0.89 μm 空间分辨率 16 m 幅宽 800 km 重访周期 2 d 表 2 不同方法赤潮信息提取的定量结果
Tab. 2 Quantitative results of red tide information extraction by different methods
方法 精确率/% 召回率/% F1分数 参数量/M 研究区I GF1_RI 67.64 80.77 0.73 − U-Net 84.32 91.32 0.87 31.02 PSPNet 91.94 83.62 0.87 23.60 DeepLabv3+ 88.41 85.41 0.86 12.04 SARTNet 88.81 90.87 0.89 5.01 研究区II GF1_RI 79.48 60.40 0.68 − U-Net 78.80 80.47 0.79 31.02 PSPNet 84.01 83.91 0.83 23.60 DeepLabv3+ 87.01 81.82 0.84 12.04 SARTNet 91.09 87.29 0.89 5.01 注:加粗数据代表同列数据最大值。 表 3 ASE模块消融实验结果
Tab. 3 ASE module ablation experimental results
ASE 精确率/% 召回率/% F1分数 无 88.89 86.50 0.87 有 90.01 89.08 0.89 表 4 不同层次主干对赤潮信息提取的定量结果
Tab. 4 Quantitative results of red tide information extraction at different levels
主干层次 精确率/% 召回率/% F1分数 SARTNet-1 91.79 85.44 0.88 SARTNet-2 90.01 89.08 0.89 SARTNet-3 88.49 88.50 0.88 表 5 输入不同数据的定量结果
Tab. 5 Quantitative results of experiments with different band settings
波段设置 精确率/% 召回率/% F1分数 4波段 88.81 90.87 0.89 4波段+NDVI 87.08 60.45 0.71 4波段+GF1_RI 87.54 91.65 0.89 4波段+GF1_RI+NDVI 87.17 67.91 0.76 表 6 模型适用性分析实验结果
Tab. 6 Experimental results of model applicability analysis
影像 精确率/% 召回率/% F1分数 GF-1 WFV3影像 91.37 86.70 0.89 GF-1 WFV4影像 89.16 87.05 0.88 -
[1] 伍玉梅, 王芮, 程田飞, 等. 基于卫星遥感的赤潮信息提取研究进展[J]. 渔业信息与战略, 2019, 34(3): 214−220. doi: 10.13233/j.cnki.fishis.2019.03.009Wu Yumei, Wang Rui, Cheng Tianfei, et al. Progress in retrieval of red tide from satellite data[J]. Fishery Information & Strategy, 2019, 34(3): 214−220. doi: 10.13233/j.cnki.fishis.2019.03.009 [2] 翟伟康, 许自舟, 张健. 河北省近岸海域赤潮灾害特征分析[J]. 海洋环境科学, 2016, 35(2): 243−246, 251. doi: 10.13634/j.cnki.mes.2016.02.015Zhai Weikang, Xu Zizhou, Zhang Jian. Analysis on characteristics of red tide disaster in Hebei coastal waters[J]. Marine Environmental Science, 2016, 35(2): 243−246, 251. doi: 10.13634/j.cnki.mes.2016.02.015 [3] 姜德娟, 王昆, 夏云. 渤海赤潮遥感监测方法比较研究[J]. 海洋环境科学, 2020, 39(3): 460−467. doi: 10.12111/j.mes20200321Jiang Dejuan, Wang Kun, Xia Yun. Comparative studies on remote sensing techniques for red tide monitoring in Bohai Sea[J]. Marine Environmental Science, 2020, 39(3): 460−467. doi: 10.12111/j.mes20200321 [4] 郝艳玲, 曹文熙, 崔廷伟, 等. 基于半分析算法的赤潮水体固有光学性质反演[J]. 海洋学报, 2011, 33(1): 52−65.Hao Yanling, Cao Wenxi, Cui Tingwei, et al. The retrieval of oceanic inherent optical properties based on semianalytical algorithm during the red ride[J]. Haiyang Xuebao, 2011, 33(1): 52−65. [5] 毛显谋, 黄韦艮. 多波段卫星遥感海洋赤潮水华的方法研究[J]. 应用生态学报, 2003, 14(7): 1200−1202. doi: 10.3321/j.issn:1001-9332.2003.07.037Mao Xianmou, Huang Weigen. Algorithms of multiband remote sensing for coastal red tide waters[J]. Chinese Journal of Applied Ecology, 2003, 14(7): 1200−1202. doi: 10.3321/j.issn:1001-9332.2003.07.037 [6] 王其茂, 马超飞, 唐军武, 等. EOS/MODIS遥感资料探测海洋赤潮信息方法[J]. 遥感技术与应用, 2006, 21(1): 6−10. doi: 10.3969/j.issn.1004-0323.2006.01.002Wang Qimao, Ma Chaofei, Tang Junwu, et al. A method for detecting red tide information using EOS/MODIS data[J]. Remote Sensing Technology and Application, 2006, 21(1): 6−10. doi: 10.3969/j.issn.1004-0323.2006.01.002 [7] Ahn Y H, Shanmugam P. Detecting the red tide algal blooms from satellite ocean color observations in optically complex Northeast-Asia Coastal waters[J]. Remote Sensing of Environment, 2006, 103(4): 419−437. doi: 10.1016/j.rse.2006.04.007 [8] Caballero I, Fernández R, Escalante O M, et al. New capabilities of Sentinel-2A/B satellites combined with in situ data for monitoring small harmful algal blooms in complex coastal waters[J]. Scientific Reports, 2020, 10(1): 8743. doi: 10.1038/s41598-020-65600-1 [9] Khalili M H, Hasanlou M. Harmful algal blooms monitoring using SENTINEL-2 satellite images[C]//Proceedings of the International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences. Karaj, Iran: ISPRS, 2019: 609−613. [10] Xing Qianguo, Guo Ruihong, Wu Lingling, et al. High-resolution satellite observations of a new hazard of golden tides caused by floating sargassum in winter in the Yellow Sea[J]. IEEE Geoscience and Remote Sensing Letters, 2017, 14(10): 1815−1819. doi: 10.1109/LGRS.2017.2737079 [11] Yunus A P, Dou Jie, Sravanthi N. Remote sensing of chlorophyll-a as a measure of red tide in Tokyo Bay using hotspot analysis[J]. Remote Sensing Applications: Society and Environment, 2015, 2: 11−25. doi: 10.1016/j.rsase.2015.09.002 [12] Rahman A F, Aslan A. Detecting red tide using spectral shapes[C]//Proceedings of 2016 IEEE International Geoscience and Remote Sensing Symposium (IGARSS). Beijing: IEEE, 2016: 5856−5859. [13] Liu Rongjie, Zhang Jie, Cui Binge, et al. Red tide detection based on high spatial resolution broad band satellite data: a case study of GF-1[J]. Journal of Coastal Research, 2019, 90(SI): 120−128. [14] Liu Rongjie, Xiao Yanfang, Ma Yi, et al. Red tide detection based on high spatial resolution broad band optical satellite data[J]. ISPRS Journal of Photogrammetry and Remote Sensing, 2022, 184: 131−147. doi: 10.1016/j.isprsjprs.2021.12.009 [15] 刘岳明, 杨晓梅, 王志华, 等. 基于深度学习RCF模型的三都澳筏式养殖区提取研究[J]. 海洋学报, 2019, 41(4): 119−130.Liu Yueming, Yang Xiaomei, Wang Zhihua, et al. Extracting raft aquaculture areas in Sanduao from high-resolution remote sensing images using RCF[J]. Haiyang Xuebao, 2019, 41(4): 119−130. [16] 崔艳荣, 邹斌, 韩震, 等. 卷积神经网络在卫星遥感海冰图像分类中的应用探究——以渤海海冰为例[J]. 海洋学报, 2020, 42(9): 100−109.Cui Yanrong, Zou Bin, Han Zhen, et al. Application of convolutional neural networks in satellite remote sensing sea ice image classification: a case study of sea ice in the Bohai Sea[J]. Haiyang Xuebao, 2020, 42(9): 100−109. [17] 徐知宇, 周艺, 王世新, 等. 面向GF-2遥感影像的U-Net城市绿地分类[J]. 中国图象图形学报, 2021, 26(3): 700−713. doi: 10.11834/jig.200052Xu Zhiyu, Zhou Yi, Wang Shixin, et al. U-Net for urban green space classification in Gaofen-2 remote sensing images[J]. Journal of Image and Graphics, 2021, 26(3): 700−713. doi: 10.11834/jig.200052 [18] 姜宗辰, 马毅, 江涛, 等. 基于深度置信网络(DBN)的赤潮高光谱遥感提取研究[J]. 海洋技术学报, 2019, 38(2): 1−7.Jiang Zongchen, Ma Yi, Jiang Tao, et al. Research on the extraction of red tide hyperspectral remote sensing based on the deep belief network (DBN)[J]. Journal of Ocean Technology, 2019, 38(2): 1−7. [19] 李敬虎, 邢前国, 郑向阳, 等. 基于深度学习的无人机影像夜光藻赤潮提取方法[J]. 计算机应用, 2022, 42(9): 2969−2974.Li Jinghu, Xing Qianguo, Zheng Xiangyang, et al. Noctiluca scintillans red tide extraction method from UAV images based on deep learning[J]. Journal of Computer Applications, 2022, 42(9): 2969−2974. [20] Lee H, Kwon H, Kim W. Generating hard examples for pixel-wise classification[J]. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 2021, 14: 9504−9517. doi: 10.1109/JSTARS.2021.3112924 [21] Zhao Xin, Liu Rongjie, Ma Yi, et al. Red tide detection method for HY-1D coastal zone imager based on U-net convolutional neural network[J]. Remote Sensing, 2022, 14(1): 88. [22] 刘锟, 付晶莹, 李飞. 高分一号卫星4种融合方法评价[J]. 遥感技术与应用, 2015, 30(5): 980−986.Liu Kun, Fu Jingying, Li Fei. Evaluation study of four fusion methods of GF-1 PAN and multi-spectral images[J]. Remote Sensing Technology and Application, 2015, 30(5): 980−986. [23] 王蕊, 王常颖, 李劲华. 基于数据挖掘的GF-1遥感影像绿潮自适应阈值分区智能检测方法研究[J]. 海洋学报, 2019, 41(4): 131−144.Wang Rui, Wang Changying, Li Jinhua. An intelligent divisional green tide detection of adaptive threshold for GF-1 image based on data mining[J]. Haiyang Xuebao, 2019, 41(4): 131−144. [24] 张海龙, 孙德勇, 李俊生, 等. 基于GF1-WFV和HJ-CCD数据的我国近海绿潮遥感监测算法研究[J]. 光学学报, 2016, 36(6): 0601004. doi: 10.3788/AOS201636.0601004Zhang Hailong, Sun Deyong, Li Junsheng, et al. Remote sensing algorithm for detecting green tide in China coastal waters based on GF1-WFV and HJ-CCD data[J]. Acta Optica Sinica, 2016, 36(6): 0601004. doi: 10.3788/AOS201636.0601004 [25] 程益锋, 黄文骞, 吴迪, 等. 基于高分一号卫星影像的珊瑚岛礁分类方法[J]. 海洋测绘, 2018, 38(6): 49−53. doi: 10.3969/j.issn.1671-3044.2018.06.012Cheng Yifeng, Huang Wenqian, Wu Di, et al. Coral reefs classification methods based on GF-1 satellite image[J]. Hydrographic Surveying and Charting, 2018, 38(6): 49−53. doi: 10.3969/j.issn.1671-3044.2018.06.012 [26] 邝辉宇, 吴俊君. 基于深度学习的图像语义分割技术研究综述[J]. 计算机工程与应用, 2019, 55(19): 12−21. doi: 10.3778/j.issn.1002-8331.1905-0325Kuang Huiyu, Wu Junjun. Survey of image semantic segmentation based on deep learning[J]. Computer Engineering and Applications, 2019, 55(19): 12−21. doi: 10.3778/j.issn.1002-8331.1905-0325 [27] Li Hanchao, Xiong Pengfei, Fan Haoqiang, et al. DFANet: deep feature aggregation for real-time semantic segmentation[C]//Proceedings of 2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Long Beach: IEEE, 2019: 9522−9531. [28] Newell A, Yang Kaiyu, Deng Jia. Stacked hourglass networks for human pose estimation[C]//Proceedings of the 14th European Conference on Computer Vision. Amsterdam: Springer, 2016: 483−499. [29] Mao Xiaojiao, Shen Chunhua, Yang Yubin. Image restoration using very deep convolutional encoder-decoder networks with symmetric skip connections[C]//Proceedings of the 30th International Conference on Neural Information Processing Systems. Barcelona: Curran Associates Inc. , 2016: 2810−2818. [30] Zhou Feng, Hu Yong, Shen Xukun. Scale-aware spatial pyramid pooling with both encoder-mask and scale-attention for semantic segmentation[J]. Neurocomputing, 2020, 383: 174−182. doi: 10.1016/j.neucom.2019.11.042 [31] Zhao Hengshuang, Shi Jianping, Qi Xiaojuan, et al. Pyramid scene parsing network[C]//Proceedings of 2017 IEEE Conference on Computer Vision and Pattern Recognition. Honolulu: IEEE, 2017: 2881−2890. [32] Hu Jie, Shen Li, Sun Gang. Squeeze-and-excitation networks[C]//Proceedings of 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Salt Lake City: IEEE, 2018: 7132−7141. [33] Ronneberger O, Fischer P, Brox T. U-Net: convolutional networks for biomedical image segmentation[C]//Proceedings of the 18th International Conference on Medical Image Computing and Computer-Assisted Intervention. Munich: Springer, 2015: 234−241. [34] Chen L C, Zhu Yukun, Papandreou G, et al. Encoder-decoder with atrous separable convolution for semantic image segmentation[C]//Proceedings of the European Conference on Computer Vision. Munich: Springer, 2018: 833−851. [35] Rouse J W Jr, Haas R H, Schell J A, et al. Monitoring vegetation systems in the Great Plains with ERTS[R]. College Station, TX, United States: NASA, 1974. -