基于可变形全卷积神经网络的冬小麦自动解译研究

Transactions of the Chinese Society for Agricultural Machinery(2020)

引用 1|浏览1
暂无评分
摘要
以高分二号遥感影像为研究对象进行冬小麦多元特征的提取,在U-Net模型基础上进行改进,将一种可变形全卷积神经网络(DFCNN)模型引入到遥感影像自动解译领域.为提高网络模型对几何变化特征的提取能力,引入可变形卷积的思想,将可训练的二维偏移量加入到网络中的每个卷积层前,使卷积产生形变,并获得对象级语义信息,从而增强了模型对不同尺寸及空间分布的冬小麦特征的表达.使用DFCNN模型对数据集进行训练及微调,得到最优的网络模型,其像素精度为98.1%,解译时间为0.630 s.采用FCNN模型、U-Net模型及RF算法得到的冬小麦自动解译像素精度分别为89.3%、93.9%、90.0%,说明基于DFCNN模型的冬小麦自动解译精度相对较高,且对复杂的几何变化特征有较好的表达,具有较好的泛化能力.
更多
AI 理解论文
溯源树
样例
生成溯源树,研究论文发展脉络
Chat Paper
正在生成论文摘要