Some new-recorded vascular plants for flora of Beijing
-
摘要: 本文报道了北京地区植物区系新记录物种8种,分别为束伞亚菊、鼬瓣花、羽叶长柄山蚂蝗、铁木、白萼委陵菜、林生茜草、林繁缕和兴安繁缕。铁木材质优良,种群数量少,建议提升保护等级。同时对刚刚在北京地区发现的兰科新种北京无喙兰形态特征给予中文描述,提高公众对该濒危物种的认识。本文还对《北京植物志》记载的杓兰和狗枣猕猴桃进行文献、标本考证与野外调查,确认其分别为山西杓兰和葛枣猕猴桃。本研究为北京市珍稀濒危植物资源调查和保护提供了重要信息。Abstract: Eight newly recorded vascular plants for flora of Beijing were reported in this paper, including Ajania parviflora, Galeopsis bifida, Hylodesmum oldhamii, Ostrya japonica, Potentilla betonicifolia, Rubia sylvatica, Stellaria bungeana var. stubendorfii, and Stellaria cherleriae. With good material and less population, Ostrya japonica is suggested to upgrade protection level. Meanwhile, the morphological characteristics of newly found Orchidaceae species Holopogon pekinensis in Beijing were described in Chinese to deepen the understanding of the public to the endangered species. Furthermore, we conducted textual research of literature and specimen and field investigation of Cypripedium calceolus and Actinidia kolomikta recorded in Flora of Beijing, and confirmed they were C. shanxiense and A. polygama, respectively. Our study provides important information for the investigation and conservation of rare and endangered plants in Beijing.
-
Keywords:
- Holopogon pekinensis /
- Cypripedium shanxiense /
- Beijing flora /
- Ostrya japonica
-
通常情况下,图像识别分类时存在着类内相似、类间差异的特点,但是在树种图像识别中,往往存在着类内差异、类间相似的现象[1]。同类树种之间,由于年龄大小、季节变化等因素,导致图像之间会有很大的差异;不同树种之间,尤其是同科树种之间,在局部特征和细节方面,却存在相似之处。这就给基于单一人工特征的传统识别方法带来了更大的难度。寻求新的方法快速准确地对树种图像进行自动识别是研究的关键所在。
现有的树种识别研究比较热门的有基于遥感影像和基于数字图像两个方面。Richter等[2]利用高光谱数据,通过引入基于偏最小二乘的判别分析,对树种进行分类,总体准确率达到78.4%;Pham等[3]将激光雷达和光谱数据相结合,利用随机森林确定重要的特征变量,支持向量机作为分类器,总体精确度为85.4%(Kappa系数为80.6%)。在基于数字图像方面,又可分为传统人工特征识别和神经网络智能识别。传统人工特征识别方面,陈明健等[4]将叶片传统特征、距离矩阵和角点矩阵相融合,对树种进行识别,识别率达到90%以上;李可心等[5]以树皮图像为研究对象,通过灰度共生矩阵,提取树皮图像的纹理信息,并利用SOM神经网络,对3类树种进行识别,识别率较为理想;杨洋[6]基于Haar小波变换的方法,并将SVM作为分类器,对树种进行识别,通过对叶片提取几何特征和纹理特征,并采用SVM的分类方法,取得了理想的识别准确率;于海鹏等[7]通过对木材图像提取色调、饱和度等9个特征参数,从纹理特征的最大相似性入手,对木材树种进行分类识别,检索正确率较高;孙伶君等[8]对木材图像采用分块LBP特征提取,使用衰减、卡方、欧式3种方法分类,最近邻法识别,准确率高达93.3%。神经网络智能识别方面,在国外,Bertrand等[9]将树干、树叶特征相结合,并将算法嵌入到智能手机中,大大增强了实用化和利用率。Zhao等[10]将树种叶片作为研究对象,基于Android系统,开发一款名为“Apleap”的移动端软件,不仅为专业人士识别带来便利,对普通民众来说,普及率大大提高;在国内,对于树种智能识别的研究起步相对较晚,赵鹏超等[11]以阔叶叶脉的纹理特征为切入点,构建卷积神经网络,最终训练识别率达到95%以上,为树种识别提供新思路。上述方法,尽管都取得了不错的识别效果,但也存在着一些问题,如大部分研究是依靠人工提取图像特征来满足实验要求。众所周知,同一棵树,在不同季节、不同年龄、不同拍摄角度等条件下,都会显示出不同的形态,其图像中各个特征信息都会随之发生变化,因此对继续提高树种识别率带来了困难。
近年来,深度卷积神经网络发展迅速,得到了广泛关注。物体不管呈现出何种状态,深度学习方法获取的低层和深层的特征信息都能够做到保持不变[12]。早期,Lecun等[13]提出L提出LeNet-5模型,基于反向传播算法对网络进行训练,通过卷积层和池化层将原始图像特征进行自动提取,并转化为相对应的特征子图,最后将全连接层作为“分类器”,进行最后的分类输出,并最终在MNIST手写字符数据集的识别上取得了成功。2012年,卷积神经网络迎来了发展高潮,Krizhevsky等[14]首次将深度学习理念应用到图像分类中,提出AlexNet模型,并在ImageNet[15]图像分类大赛中,以巨大优势获得冠军,使得卷积神经网络在图像处理领域成为最受欢迎的方法。在接下来的几年里,在经典卷积神经网络模型的基础上,不断有学者和研究人员进行改进和创新,如Simonyan等[16]提出的VGG模型、Szegedy等[17]提出的GoogLeNet模型、He等[18]提出的ResNet模型等。鉴于卷积神经网络在图像识别分类上的广泛应用,陆续有研究人员在树种图像识别中采用CNN。例如,上面提到的赵鹏超等人,将叶脉的纹理特征作为CNN的输入值,其分类效果明显高于传统人工特征方法,一定程度上表明深度学习方法的可行性。但是,此研究采用单一特征进行识别,不够全面,是否能应用到其他特征识别上来,还有待进一步验证。
基于上述问题,本文基于CNN模型,提出一种将图像深层特征和人工特征融合的树种图像深度学习识别方法,使用3路相同的CNN模型作为并行网络,对RGB图像、HSV图像、人工特征Gabor特征和颜色矩分别进行特征提取,并在最后一个全连接层进行汇总,识别输出。通过多特征融合解决了树种单一特征识别的限制问题,完成了对不同树种图像的自动识别。
1. 材料与方法
1.1 图像数据集
6类树种包括:樟子松(Pinus sylvestris var. mongolica)、山杨(Populus davidiana)、白桦(Betula platyphylla)、落叶松(Larix gmelinii)、雪松(Cedrus deodara)和白皮松(Pinus bungeana)。示例图像见图1A ~ F。为满足深度学习模型训练要求,通过裁剪、水平翻转、旋转对原始图像进行扩增。树种图像数据集共计3 375幅,其中训练集2 775幅,测试集600幅,各个树种图像具体数量见图2。最后,利用python脚本语言将图像像素值调整至256 × 256像素,JPG格式保存。所有图像均采集于自然状态下,拍摄设备为数码相机和智能手机。
1.2 卷积神经网络
典型的卷积神经网络(CNN)主要由输入层、卷积层、池化层(降采样层)、全连接层和输出层组成[19]。
通常情况下,CNN网络的输入层为图像,紧接着是卷积层,卷积层通过对卷积核设置不同的个数和大小,将输入的图像转化为特征子图(feature map),传递到下一层。卷积的计算公式可以表示为:
Ilj=∑iIl−1i⊗kl−1ij+blj (1) 式中:
Ilj 代表第l层产生的第j个特征图;kl−1ij 代表卷积核个数;blj 为偏置项;⊗ 代表卷积运算。池化层通常紧连接着卷积层,选择某种池化方法[20],对卷积得到的特征图进行池化,此操作也被称为下采样。池化的主要目的就是降低特征图的维度和在一定程度上保持特征的尺度不变性。池化层计算公式一般为:
Zlj=down(Ylj) (2) 式中:
Zlj 为池化层的输出项;Ylj 为池化层的输入项;down(Δ) 为池化函数。经过卷积和池化操作后,卷积神经网络会采用全连接层,作为“分类器”,对前面提取的大量特征进行分类,来确定最终的图像类别。计算公式如下:
h(IL)=f(WTIL+b) (3) 式中:
h(Δ) 为全连接层的输出项;IL 为第L层的卷积输出;W和b分别为全连接层的权重和偏置项;f(Δ) 为激励函数。除上述常规网络层之外,为提高CNN网络模型的性能和泛化能力,往往采用辅助方法。本文在每个卷积层采用ReLU激励函数,此函数不会随着输入项的增加而接近饱和[21]。ReLU激励函数计算公式如下:
f(x)=max (4) 式中:x为输入值。
另外,在ReLU函数后,也采用LRN(Local Response Normalization)[22]策略方法,旨在增强网络模型的泛化能力,计算公式如下:
b_{x,y}^i = \frac{{a_{x,y}^i}}{{{{\left( {k + \alpha \displaystyle\sum\limits_{j = \max \left( {0,i - n/2} \right)}^{\min \left( {N - 1,i + n/2} \right)} {{{\left( {a_{x,y}^j} \right)}^2}} } \right)}^\beta }}} (5) 式中:b代表特征图中i泛化后对应的像素值;j代表j ~ i的像素值的平方和;x,y为像素的位置;a代表特征图中i对应的像素值;N为特征图里面最内层向量的列数;k,α,n,β均为超参数,本文取值分别为:k = 2,α = 0.000 1,n = 5,β = 0.75。
1.3 特征提取
1.3.1 RGB图像
RGB图像,即代表红(R)、绿(G)、蓝(B)3个通道的颜色,通过不同颜色分量来表示彩色图像。本文原始数据集,即RGB图像,直接作为本文第1路CNN网络的输入图像。
1.3.2 HSV图像
HSV图像,即代表色调(H)、饱和度(S)、亮度(V),较RGB图像相比,HSV图像更加符合人类对于颜色的直观感受。之所以选择HSV图像作为另一种特征,是因为在拍摄树种图像时,亮度的变化对树种识别产生一定程度的影响。因此,本文将树种图像从RGB颜色空间转化为HSV颜色空间,作为本文第2路CNN网络的输入图像。转换思路如下:
\begin{split} & H = \left\{ \begin{array}{*{20}{l}} \!\!\!\!\!{0^ \circ ,} & \!\!\!\!\!{{\rm{if}}\;{\rm{MAX}} = {\rm{MIN}}}\\ \!\!\!\!{{60^ \circ } \times \dfrac{{G - B}}{{{\rm{MAX}} - {\rm{MIN}}}} + {0^ \circ },} &\!\!\!\!\! {{\rm{if}}\;{\rm{MAX}} = R\;{\rm{and}}\;G \geqslant B}\\ \!\!\!\!{{60^ \circ } \times \dfrac{{G - B}}{{{\rm{MAX}} - {\rm{MIN}}}} + {360^ \circ },} & \!\!\!\!\!{{\rm{if}}\;{\rm{MAX}} = R\;{\rm{and}}\;G < B}\\ \!\!\!\!{{60^ \circ } \times \dfrac{{B - R}}{{{\rm{MAX}} - {\rm{MIN}}}} + {120^ \circ },} & \!\!\!\!\!{{\rm{if}}\;{\rm{MAX}} = G}\\ \!\!\!\!{{60^ \circ } \times \dfrac{{R - G}}{{{\rm{MAX}} - {\rm{MIN}}}} + {240^ \circ },} & \!\!\!\!\!{{\rm{if}}\;{\rm{MAX}} = B} \end{array} \right.\\ & S = \left\{ \begin{array}{*{20}{l}} \!\!\!\!\!{0^ \circ ,} & \!\!\!{{\rm{if}}\;{\rm{MAX}} = 0}\\ \!\!\!\!{\dfrac{{{\rm{MAX}} - {\rm{MIN}}}}{{{\rm{MAX}}}} = 1 - \dfrac{{{\rm{MIN}}}}{{{\rm{MAX}}}},} & \!\!\!\!\!{{\rm{Otherwise}}} \end{array} \right.\\ & V = {\rm{MAX}} \end{split} (6) 式中:R、G、B为红(R)、绿(G)、蓝(B)的颜色值;H、S、V为色调(H)、饱和度(S)、亮度(V)的值;MAX为R、G、B中的最大值,MIN为最小值;H在[0,360°]之间,S在[0,100°]之间,V在[0,MAX]之间。
1.3.3 LBP特征
本文采用LBP[23]来描述树种图像局部纹理特征,利用其灰度不变性、旋转不变性以及对光照变化的鲁棒性,能够表示90%以上的纹理信息。LBP计算公式如下:
{\rm{LBP}}\left( {{x_{\rm{c}}},{y_{\rm{c}}}} \right) = \sum\limits_{p = 0}^{p - 1} {{2^p}s\left( {{i_p} - {i_{\rm{c}}}} \right)} (7) s\left( x \right) = \left\{ \begin{gathered} 1\begin{array}{*{20}{c}} {}&{x \geqslant 0} \end{array} \\ 0\begin{array}{*{20}{c}} {}&{x < 0} \end{array} \\ \end{gathered} \right. (8) 式中:(xc,yc)是邻域窗口的中心元素,像素值大小为ic;ip是3 × 3邻域窗口内其他像素值;s(x)是符号函数。
LBP特征提取步骤:
(1) 首先,根据原始图像的像素大小为256 × 256,因此将检测窗口划分为16 × 16的子区域。
(2) 利用上述公式对每个子区域的像素点的LBP进行计算。
(3) 计算每个子区域的直方图,也就是每个LBP值出现的频率,并对直方图进行归一化处理。
(4) 最后将得到的所有直方图连接成为一个特征向量,即整个图像的LBP纹理信息。
1.3.4 HOG特征
本文采用HOG特征[24]来描述树种图像的形状特征,提高模型对光照因素的鲁棒性,其通过计算图像局部的方向梯度直方图来表达形状特征。HOG特征计算公式如下:
\begin{gathered} {G_{\rm{x}}}\left( {x,y} \right) = H\left( {x + 1,y} \right) - H\left( {x - 1,y} \right) \\ {G_{\rm{y}}}\left( {x,y} \right) = H\left( {x,y + 1} \right) - H\left( {x,y - 1} \right) \\ \end{gathered} (9) 式中:Gx(x,y)代表图像中像素点(x,y)水平方向梯度,Gy(x,y)代表图像中像素点(x,y)垂直方向梯度,H(x,y) 代表图像的像素值。
\begin{gathered} {G_{\rm{x}}}\left( {x,y} \right) = \sqrt {{G_{\rm{x}}}{{\left( {x,y} \right)}^2}{\rm{ + }}{G_{\rm{y}}}{{\left( {x,y} \right)}^2}} \\ \alpha \left( {x,y} \right) = {\tan ^{ - 1}}\left( {\frac{{{G_{\rm{y}}}\left( {x,y} \right)}}{{{G_{\rm{x}}}\left( {x,y} \right)}}} \right) \\ \end{gathered} (10) 式中:α(x,y)代表像素点(x,y)处的方向。
HOG特征提取步骤:
(1) 灰度化:由于颜色信息起的作用不大,因此将图像转化为灰度图像。
(2) 为减少光照等因素的影响,对整个图像进行归一化处理。
(3) 本文采用的梯度算子为:水平方向算子为[− 1, 0, 1],垂直方向算子为[− 1, 0, 1]T。再通过公式(9)和公式(10)计算梯度幅值和梯度方向。
(4) 将整个图像分割成小的Cell单元格(8 × 8像素)。
(5) 本文采用9个组距的直方图来统计8 × 8个像素的梯度信息,对单元格内的每个像素进行加权投影,得到该单元格对应的9维特征向量。
(6) 最后将得到的所有单元格组成大的块,块内归一化直方图,即整个图像的HOG纹理信息。
1.4 构建树种识别CNN模型
本文在经典卷积神经网络的基础上,进行改进和完善,根据数据集的实际情况,经过不断调试,构建了适合本文树种图像识别的3路并列网络模型(图3)。每路CNN树种识别模型,由4个卷积层、4个池化层、3个全连接层组成,具体的参数设置如下。
第1个卷积层:有64个卷积核,大小为11 × 11;步长为2,激励函数为ReLU;采用最大池化法,池化窗口大小为2 × 2;并加入LRN层。
第2个卷积层:有128个卷积核,大小为5 × 5;步长为2,激励函数为ReLU;采用最大池化法,池化窗口大小为2 × 2;特征图的高度宽度均填充2像素。
第3个卷积层:有128个卷积核,大小为5 × 5;步长为1;采用最大池化法,池化窗口大小为4 × 4;特征图的高度宽度均填充1像素,激励函数为ReLU。
第4个卷积层:有128个卷积核,大小为3 × 3;步长为2;采用最大池化法,池化窗口大小为2 × 2;特征图的高度宽度均填充1像素,激励函数为ReLU。
全连接层:前两个全连接层包含4 096个神经元,最后一个全连接层包含1 000个神经元。输出类别:6类树种名称。
1.5 识别结果评价标准
本文用验证识别准确率和平均验证识别准确率作为识别结果的评价标准。
\begin{array}{l} {\text{验证识别准确率}} = \dfrac{{\text{正确识别出树种类别的数量}}}{{\text{树种图形的总数量}}}\\ \!\!\!\!{\text{平均验证识别准确率}}\! =\! \dfrac{{\text{每类树种验证识别准确率之和}}}{{\text{树种类别总数}}} \end{array} 2. 结果与分析
本文实验是采用的编程语言是Python3.5,在TensorFlow框架下实现的。计算机操作系统为Windows 8.1,处理器为Intel(R) Core(TM) i5-3330 CPU,安装内存6 GB。CNN模型训练参数设置为:学习率0.000 1,迭代次数为6 000,Batch_size为64。整个并列网络训练时的准确率和损失率如图4所示。从图4中可以看出,在训练到5 000次时,训练准确率趋于稳定,且无较大变化。在训练开始的500次时,损失率迅速下降,经过5 000次后,损失率下降到0.1左右,并趋于一个平稳的状态。
基于本文方法的实验结果如表1所示。从最终识别结果可以看出,利用3路并列网络,将多个特征进行融合,平均验证识别准确率为91.17%,基本满足对树种图像的识别要求。其中,白皮松树种图像验证识别准确率最高,达到93.50%,落叶松识别准确率较低,达到88.70%。
表 1 本文方法的实验结果Table 1. Experimental results in this paper% 项目 Item 樟子松
Pinus sylvestris
var. mongolica山杨
Populus
davidiana白桦
Betula
platyphylla落叶松
Larix
gmelinii雪松
Cedrus
deodara白皮松
Pinus
bungeana验证识别准确率
Accuracy rate of verification and recognition91.50 90.40 92.80 88.70 90.10 93.50 平均验证识别准确率
Average accuracy rate of verification and recognition91.17 2.1 模型训练特征图显示
本文以一张白桦图像为例,分别展示了RGB图像、HSV图像、LBP图像和HOG图像在卷积层、池化层的特征图(图5 ~ 8)。由于篇幅有限,本文每层只展示4幅特征图。从图中可以得出4张图像可视化的共同点:在浅层的卷积和池化过程中,模型对图像的边缘信息最感兴趣;在越高层的卷积和池化过程中,提取的图像特征信息越来越抽象,越来越复杂,肉眼已经很难去识别。通过调用CNN的可视化功能,能够及时了解CNN识别图像的过程,也为我们改进网络模型结构提供了参考依据。
2.2 卷积核数目对实验的影响
本文对CNN模型的卷积层中卷积核数目进行不同的组合和测试,对比实验的具体参数和结果如表2所示。经过几种不同的卷积核数目的组合,64-128-128-128组合的训练准确率最高,达到了96.13%。一般情况下,卷积核数目越多,可提取学习的特征信息就越多,但也造成了网络模型中的参数骤增,计算速度变慢,容易在训练过程中造成过拟合。
表 2 不同卷积核数目的训练准确率Table 2. Training accuracy rate of different convolution kernel numbers卷积核数目
Convolution kernel number训练准确率
Training accuracy rate/%32-64-64-128 75.26 32-64-128-64 72.21 32-64-128-192 78.28 48-64-128-128 75.12 48-128-192-128 81.79 48-128-128-192 82.23 64-128-128-128 96.13 64-128-192-192 91.27 64-64-128-192 92.02 2.3 不同特征组合对实验的影响
由表3可以看出,在单一特征条件下,训练准确率和验证准确率最高的是RGB特征,分别为75.21%和72.17%;其次是HSV特征;HOG纹理特征和LBP形状特征的识别率最差。将HSV图像进行单通道提取,分别作为单一特征进行测试,虽然相对LBP-HOG特征来说,训练准确率和验证准确率有所提高,但是实验结果仍然不理想。将RGB像素值特征与其他特征进行融合,与单一特征或其他特征融合得到的模型相比,其中,“RGB + LBP形状 + H通道”的特征融合得到的识别效果最好,训练准确率和验证识别准确率分别为96.13%、93.50%。
表 3 不同特征组合的识别率Table 3. Recognition rate of different feature combinations特征
Feature训练准确率
Training accuracy rate/%验证准确集
Verification accuracy set验证集
Validation set验证识别准确率
Verifying the recognition accuracy rate/%RGB 75.21 433 600 72.17 HSV 71.56 416 600 69.33 HOG-LBP 56.28 314 600 52.33 H 63.78 377 600 62.83 S 68.12 391 600 65.17 V 64.14 375 600 62.50 RGB + H 78.26 451 600 75.17 RGB + S 75.26 440 600 73.33 RGB + V 78.21 445 600 74.17 RGB + LBP 75.23 446 600 74.33 RGB + HOG 77.58 460 600 76.67 RGB + HOG + H 86.29 498 600 83.00 RGB + HOG + S 82.15 475 600 79.17 RGB + HOG + V 84.26 493 600 82.17 RGB + LBP + H 96.13 561 600 93.50 RGB + LBP + S 88.14 525 600 87.50 RGB + LBP + V 92.36 541 600 90.17 RGB + HSV + LBP-HOG 990.56 537 600 89.50 图9给出了本文树种识别模型对6类树种测试结果的混淆矩阵[25]。混淆矩阵的每一列代表树种实际的类别,每一行代表模型预测后的类别,直观地对本文模型的识别效果进行展示。本文识别模型得到的混淆矩阵,在对角线上显示高值,在矩阵的其余部分显示低值。混淆矩阵用从蓝色到红色的颜色标度表示,蓝色表示低值,红色表示高值。从图9中可以看出,对角线上红色最多,说明识别准确率最高,也进一步说明,本文提出的树种识别算法模型取得了理想的识别效果。
2.4 不同方法的实验结果
为验证本文提出的3路并列CNN网络模型的有效性,与SVM分类器、BP神经网络以及现有的深度学习LeNet-5模型、VGG-16模型作比较,比较结果见表4。由表4中数据可以看出,本文方法对6类树种的识别率最高。原因为:SVM和BP分类器,过度依赖于手动提取图像特征,尤其是在提取特征的过程中,不可避免的会发生一些图像关键特征的遗漏和受无关因素干扰的现象,造成识别率低;另外,LeNet-5模型,虽然是深度学习方法,但最初的设计仅仅应用于手写数字的识别,且一般情况下为灰度图像,在处理复杂的树种图像时,识别能力受到了大大的限制;VGG-16模型,是由13层卷积层和3层全连接层构成的深度学习模型,更适合于大样本量的数据识别,对于本文树种图像的小样本来说,对模型泛化能力的提高是一件困难的事,因此也没有取得理想的识别效果。本文的3路并列网络模型,从数据集中自动提取图像特征,从不同角度对图像特征进行深入挖掘并学习,使得模型泛化能力变强,识别效果理想。
表 4 与其他方法的识别率比较结果Table 4. Comparison results of recognition rates with other methods% 方法
Method识别率 Recognition rate 白桦
Betula platyphylla樟子松
Pinus sylvestris var. mongolica落叶松
Larix gmelinii雪松
Cedrus deodara山杨
Populus davidiana白皮松
Pinus bungeanaSVM 47.25 48.41 48.02 44.95 43.66 45.28 BP 36.25 39.41 40.25 39.65 39.12 38.25 LeNet-5 59.28 55.36 57.25 54.78 55.45 52.36 VGG-16 63.21 60.17 66.28 64.58 64.11 60.29 本文方法
Method in this study92.80 91.50 88.70 90.10 90.40 93.50 3. 结论与讨论
3.1 结 论
本文根据在树种图像识别时存在类内差异、类间相似的现象,提出3路并列CNN网络模型对6类树种图像进行识别。通过设计11层(4层卷积层、4层池化层、3层全连接层)CNN网络模型,分成3路,通过将RGB图像像素值特征、HSV图像色彩特征、LBP纹理和HOG形状特征进行融合,作为CNN模型的识别输入特征,在最后一层全连接层进行特征汇总,对树种种类进行识别分类。本文方法在一定程度上避免了单一特征或传统手动提取特征造成识别率低的问题,并在与SVM、BP、LeNet-5模型、VGG-16模型的比较实验中,识别效果更好,模型泛化能力得到大大提高。
众所周知,树种图像特征选择的好坏,直接影响着最终的识别结果。本文从全局特征中选择了LBP特征和HOG特征,分别从树种图像纹理和形状的角度出发,对树种图像特征做进一步表达。
本文实验研究结果表明,多特征融合的树种种类识别相对于单一特征和传统手动特征的识别方法,具有更好的识别能力。另外,多特征融合的分类器取得了对6类树种图像的最高识别率。
3.2 讨 论
尽管本文研究取得了理想的识别结果,但不同树种图像对应不同的特征,本文的CNN网络模型和参数是否仍能取得同样的识别结果,有待进一步验证。在后续的研究工作中,进一步扩大树种样本的种类和数量,继续探索更具代表性的图像特征,不断调试模型参数和权重,寻找最优的网络模型,训练出更好的CNN树种识别模型。
-
-
[1] MYERS N, MITTERMEIER R A, MITTERMEIER C G, et al. Biodiversity hotspots for conservation priorities[J]. Nature, 2000, 403: 853-858. doi: 10.1038/35002501
[2] LIU J G, DIAMOND J. China's environment in a globalizing world[J]. Nature, 2005, 435: 1179-1186. doi: 10.1038/4351179a
[3] 路端正, 康木生, 贺文同.北京植物增补[J].武汉植物学研究, 1993, 11(1): 24-30. http://d.old.wanfangdata.com.cn/Periodical/bjlydxxb201712011 LU D Z, KANG M S, HE W T. Some new recorded plants from Beijing[J]. Journal of Wuhan Botanical Research, 1993, 11(1): 24-30. http://d.old.wanfangdata.com.cn/Periodical/bjlydxxb201712011
[4] 路端正.北京植物新资料[J].北京农学院学报, 2002, 17(3): 19-21. doi: 10.3969/j.issn.1002-3186.2002.03.005 LU D Z. New material of the plants of Beijing[J]. Journal of Beijing Agricultural College, 2002, 17(3): 19-21. doi: 10.3969/j.issn.1002-3186.2002.03.005
[5] 路端正, 徐红梅.北京植物新资料(二)[J].北京农学院学报, 2003, 18(3): 211-213. doi: 10.3969/j.issn.1002-3186.2003.03.014 LU D Z, XU H M. New material of the plants of Beijing(2)[J]. Journal of Beijing Agricultural College, 2003, 18(3): 211-213. doi: 10.3969/j.issn.1002-3186.2003.03.014
[6] 刘全儒.北京及河北植物新记录[J].北京师范大学学报(自然科学版), 2000, 36(5): 674-676. doi: 10.3321/j.issn:0476-0301.2000.05.023 LIU Q R. Some newly recorded plants from Beijing and Hebei[J]. Journal of Beijing Normal University (Natural Science), 2000, 36(5): 674-676. doi: 10.3321/j.issn:0476-0301.2000.05.023
[7] 刘全儒, 康慕谊, 江源.北京及河北植物新记录(Ⅱ)[J].北京师范大学学报(自然科学版), 2003, 39(4): 674-676. http://www.wanfangdata.com.cn/details/detail.do?_type=perio&id=bjsfdxxb200305020 LIU Q R, KANG M Y, JIANG Y. Some newly recorded plants from Beijing and Hebei (Ⅱ)[J]. Journal of Beijing Normal University (Natural Science), 2003, 39(4): 674-676. http://www.wanfangdata.com.cn/details/detail.do?_type=perio&id=bjsfdxxb200305020
[8] 刘全儒, 车晋滇, 贯潞生, 等.北京及河北植物新记录(Ⅲ)[J].北京师范大学学报(自然科学版), 2005, 41(5): 510-512. doi: 10.3321/j.issn:0476-0301.2005.05.019 LIU Q R, CHE J D, GUAN L S, et al. Some newly recorded plants from Beijing and Hebei (Ⅲ)[J]. Journal of Beijing Normal University (Natural Science), 2005, 41(5): 510-512. doi: 10.3321/j.issn:0476-0301.2005.05.019
[9] 刘全儒, 张劲林.北京植物区系新资料[J].北京师范大学学报(自然科学版), 2014, 50(2): 166-168. http://d.old.wanfangdata.com.cn/Periodical/bjsfdxxb201402011 LIU Q R, ZHANG J L. Some newly recorded plants from Beijing[J]. Journal of Beijing Normal University (Natural Science), 2014, 50(2): 166-168. http://d.old.wanfangdata.com.cn/Periodical/bjsfdxxb201402011
[10] 贺士元, 邢其华, 尹祖棠, 等.北京植物志[M].北京:科学出版社, 1992. HE S Y, XING Q H, YIN Z T, et al. Flora of Beijing[M]. Beijing: Science Press, 1992.
[11] 贺士元.河北植物志[M].石家庄:河北科学技术出版社, 1993. HE S Y. Flora of Hebei[M]. Shijiazhuang: Hebei Science and Technology Press, 1993.
[12] 李凤华, 聂永国, 卻瑞兰, 等.延庆植物图鉴[M].北京:中国林业出版社, 2015. LI F H, NIE Y G, QUE R L, et al. Plants of Yanqing[M]. Beijing: China Forestry Publishing House, 2015.
[13] MU X Y, LIU B, ZHU Y X, et al. Holopogon pekinensis (Orchidaceae), a new heteromycotrophic species from Northern China[J]. Phytotaxa, 2017, 326(2): 151-155. doi: 10.11646/phytotaxa.326.2.7