高级检索+

基于ACP-YOLOv5s的土栖白蚁活动迹象识别

王一非, 卢伟平, 袁涛, 陈龙佳, 张峰, 吴鹏飞, 黄求应

王一非,卢伟平,袁涛,等. 基于ACP-YOLOv5s的土栖白蚁活动迹象识别[J]. 农业工程学报,2025,41(1):221-229. DOI: 10.11975/j.issn.1002-6819.202409060
引用本文: 王一非,卢伟平,袁涛,等. 基于ACP-YOLOv5s的土栖白蚁活动迹象识别[J]. 农业工程学报,2025,41(1):221-229. DOI: 10.11975/j.issn.1002-6819.202409060
WANG Yifei, LU Weiping, YUAN Tao, et al. Identification of soil-dwelling termites activity signs based on ACP-YOLOv5s[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2025, 41(1): 221-229. DOI: 10.11975/j.issn.1002-6819.202409060
Citation: WANG Yifei, LU Weiping, YUAN Tao, et al. Identification of soil-dwelling termites activity signs based on ACP-YOLOv5s[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2025, 41(1): 221-229. DOI: 10.11975/j.issn.1002-6819.202409060

基于ACP-YOLOv5s的土栖白蚁活动迹象识别

基金项目: 湖北省防汛抗旱专项(HBCX-FW-2023-005)
详细信息
    作者简介:

    王一非,研究方向为农业人工智能。Email:857237460@qq.com

    通讯作者:

    吴鹏飞,副教授,研究方向为农业人工智能、智能物联网。Email:chriswpf@mail.hzau.edu.cn

    黄求应,教授,研究方向为白蚁习性规律与绿色防治。Email:qyhuang2006@mail.hzau.edu.cn

  • 中图分类号: S126

Identification of soil-dwelling termites activity signs based on ACP-YOLOv5s

  • 摘要:

    土栖白蚁作为严重危害水利工程和园林树木的重要害虫,其活动迹象的及时识别对于实施有效的蚁害预警和控制措施至关重要。针对这一需求,该研究开发了一种改进的一阶段目标检测算法——ACP-YOLOv5s,该算法基于广泛应用的YOLOv5s模型,通过集成自适应颜色感知模块(ACP-Module)对其进行优化,以增强模型在复杂自然环境下的特征提取和颜色感知能力,特别是在处理颜色混淆问题时有效提升模型的稳定性和泛化性能。在模型的颈部结构中加入CARFE上采样模块,通过扩展感受野并重新组织特征信息,以提高模型对细节的捕捉能力,从而提升识别精度。试验验证结果表明,改进后的ACP-YOLOv5s模型在土栖白蚁活动迹象检测中显示出更高的精确率和平均精度均值。与Faster R-CNN、YOLOv5s、YOLOv5m、YOLOv8和YOLOv9相比,ACP-YOLOv5s模型的精确率为91.2%,分别提升了5.3、5.0、3.4、7.9和0.1个百分点,平均精度均值为92.3%,分别提升了6.7、2.9、1.4、2.2和0.4个百分点,表明ACP-YOLOv5s模型在提高模型对复杂环境适应性方面的有效性,有助于加强对土栖白蚁侵害的早期预警和精确控制,为水利工程和园林树木白蚁防治工作提供了强有力的技术支持。

    Abstract:

    Soil-dwelling termites are highly destructive pests that pose significant threats to hydraulic engineering structures and garden trees. These pests are notorious for causing extensive damage. Their activities were often characterized by mud covering, mud tunnel, and swarming hole. Early and accurate identification of these activity signs is essential for implementing timely and effective termite damage early warning systems and control measures. However, detecting the activity signs of soil-dwelling termites is a challenging task, primarily due to the complexity of natural environments, diverse background interference, and the frequent difficulty in distinguishing termite activity signs from their surrounding environment, particularly in cases where the colors of the signs and the background blend together. To address these practical challenges, this study proposed an advanced one-stage object detection algorithm named ACP-YOLOv5s. This algorithm was an improved version of the widely used YOLOv5s model and had been specifically optimized to enhance feature extraction and color perception capabilities in complex natural environments. The core innovation lied in the integration of an adaptive color perception module (ACP-Module) along with a dynamically adjustable threshold learning mechanism. The ACP-Module intelligently analyzed the color distribution of input images and dynamically determined the optimal color threshold range. This allowed the model to automatically adjust its sensitivity to colors based on varying image contents. This mechanism effectively mitigated detection instability caused by color confusion, significantly enhancing the stability and generalization capabilities of the model. As a result, the model performed exceptionally well even in complex scenarios with high levels of environmental noise and interference.To further enhance detection accuracy, a CARFE upsampling module was incorporated into the neck structure of the model. This module played a pivotal role in expanding the receptive field and reorganizing feature information, enabling the model to detect finer image details with a greater precision. The design of the CARFE module greatly enhanced feature fusion and transmission, which was critical to improve detection accuracy in real-world applications. This optimization not only boosted the model’s performance across various environmental conditions but also significantly improved its ability to detect subtle termite activity signs, such as mud covering, mud tunnel, and swarming hole. Extensive experimental validation of the ACP-YOLOv5s model demonstrated its superiority in detecting soil-dwelling termite activity signs. The model achieved a remarkable precision of 91.2%, outperforming several state-of-the-art models, including Faster R-CNN, YOLOv5s, YOLOv5m, YOLOv8, and YOLOv9, by 5.3, 5.0, 3.4, 7.9, and 0.1 percentage points, respectively. Furthermore, the model attained a mean average precision (mAP50) of 92.3%, representing improvements of 6.7, 2.9, 1.4, 2.2, and 0.4 percentage points over other models. These results underscored the effectiveness of ACP-YOLOv5s in enhancing detection accuracy and adaptability to complex environmental conditions. The ACP-YOLOv5s model represents a significant step forward in object detection technologies for pest management. Its development offers a powerful tool for identifying and mitigating soil-dwelling termite activity, providing substantial benefits for hydraulic engineering and garden tree maintenance. By ensuring the timely detection and precise control of termite infestations, this model makes meaningful contributions to infrastructure safety, ecological preservation, and the advancement of pest control technologies.

  • 白蚁是一类对水利工程和园林树木具有严重威胁的害虫,白蚁活动的迹象通常表现为3种形式:泥被、泥线和分飞孔[1]。传统的白蚁监测方法主要依赖于人工普查,这种方法存在多方面的局限性。人工普查极为耗时且劳力密集,特别是在需要覆盖大面积或多地点监测时,会大幅增加实施难度和成本。其次,人工普查覆盖范围和频率受到实际操作条件的限制,这可能导致关键时期或区域的遗漏,影响整体监测的连续性和系统性。普查结果很大程度上依赖于执行者的专业技能和经验,观察者的主观判断可能会影响数据的客观性和一致性,从而使得收集到的数据存在偏差,会对后续的数据分析和蚁害管理决策造成影响[2-3]。因此,探索基于人工智能的高效自动化检测技术,对实现更加精准、实时的白蚁活动监控具有重要意义。

    近年来,人工智能技术迅猛发展,目前,目标检测算法主要分为2种类型:一种是双阶段(two-stage)目标检测模型,这种模式首先生成候选区域,随后在这些区域上执行分类和边界框回归操作,其中包括如 R-CNN[4]、Mask R-CNN[5]和Faster R-CNN[6]等广泛使用的模型。另一种是基于回归的单阶段(one-stage)目标检测模型,该模型跳过了候选区域的生成步骤,可以直接在整个图像上进行对象的快速分类和定位,此类模型的代表包括 SSD[7]和YOLO[8]系列等。胡彦军等[9]提出了一种基于改进Mask R-CNN模型的桃树穿孔病检测方法,增强了模型对穿孔病关键特征的提取能力,提高了检测效果,改进的Mask R-CNN模型对桃树穿孔病的平均检测精度mAP可达94.1%。姜晟等[10]应用改进的Faster R-CNN模型对复杂背景下茶叶叶部病害进行识别,平均识别精度达88.06%。虽然双阶段检测模型在精确度方面具有明显优势,然而,这种模型的主要缺点在于计算过程较为复杂和耗时,这导致它们在实时处理需求较高的应用场景中表现不佳。相比之下,由于单阶段检测器省略了候选区域生成步骤,直接在全图上进行目标的分类与定位,因此能够提供更快的处理速度,这使得它们在处理需要即时反应的复杂场景下白蚁活动迹象识别时显示出更大的优势。彭红星等[11]将SSD模型中的输入模型替换为Resnet-101模型,应用迁移学习方法和随机梯度下降算法对模型进行优化,实现了对自然环境下多类水果采摘目标的高精度检测。郭嘉璇等[12]提出在YOLOv5模型中融入全局响应归一化注意力机制实现对农作物害虫密集目标的检测识别,改进后有效提升了模型的收敛速度和识别精度,具有良好的实际应用前景。赵辉等[13]用改进的YOLOv7模型对农田复杂环境下害虫进行识别,该方法将卷积注意力模块集中到模型中,提高了被遮挡害虫的识别精确率,具有较好的实际检测效果。ZHU等[14]提出了一种名为Poly-YOLOv8的目标检测模型,该模型引入了一种基于多边形周长的损失缩放因子,能够准确高效地检测玉米叶害虫感染区域。化春键等[15]在YOLOv7模型基础上引入了CARAFE轻量级上采样算子,提升了数据特征的重组质量,扩大了模型上下文感受野,提高了在田间环境下监测食用玫瑰成熟度的准确率。KARLINSKY等[16]提出的StarNet提升了模型在少样本检测领域的识别准确性,增强了在实际检测过程中的泛化能力。

    综上,单阶段检测模型,特别是YOLO系列,已在众多应用场景中展现出卓越的检测精度与高效的处理能力,在农业病虫害检测中取得了显著进展,但在白蚁活动迹象识别方面,仍存在未被广泛探索的领域。现有研究多集中在植物病害和水果采摘目标检测,尚未充分解决白蚁活动迹象实时检测的需求。此外,部分模型虽具备较高精度,但在计算速度和复杂性方面仍存在挑战。白蚁活动迹象主要包含泥被、泥线和分飞孔,通常由白蚁使用泥土构筑,并展示出独特的颜色特征[17]。这些特征对于准确识别白蚁活动至关重要。基于此,针对白蚁活动迹象的智能识别,本研究提出ACP-YOLOv5s模型处理复杂自然场景下白蚁活动迹象的目标检测任务。为了提高对这些特定迹象的检测精度并保证模型的泛化性能,开发了一个基于StarNet的自适应颜色感知模块,利用深度学习算法调整并优化模型对泥土色泽的感知和识别能力,以提高泥被、泥线和分飞孔这3种白蚁活动迹象的检测精确。此外,为了进一步提升模型在实际应用中的表现,本研究还集成了CARAFE上采样算子,通过改进的上采样技术优化模型在特征提取和图像重建阶段的细节处理能力,以增强模型的识别精度,提高对小型或微妙变化的检测能力,确保在复杂自然场景中的高效性和可靠性。

    数据集包括来自湖北省武汉市、陕西省安康市和山西省运城市林地环境中的白蚁活动迹象图像,涵盖泥被、泥线和分飞孔。这些图像采用SONY-DSC-RX10M4专业摄影相机拍摄,具有5 472×3 648像素的高分辨率,水平和垂直分辨率均为350 dpi,曝光时间固定为1/30 s,焦距为56 mm。数据集丰富,包括了从不同角度和光照条件下拍摄的图像,同时也涉及到小目标与多遮挡情况的复杂场景。如图1所示,每种类型的轨迹各收集了1 500张原始数据,共计4 500张。使用Labelimg对采集图像进行详细标注,训练集和测试集根据7∶3的比例划分为3 150张训练集和1 350张测试集。

    图  1  土栖白蚁活动迹象数据集
    注:框中为白蚁活动迹象。
    Figure  1.  Soil-dwelling termite activity trace dataset
    Note:Termite activity trace is circled.

    为了确保训练数据的多样性与泛化能力,本研究采取了多种图像增强技术对原始数据进行扩充。具体方法包括镜像翻转、添加随机噪声以及调整亮度等手段。这些操作模拟了自然环境中可能出现的各种变化情况,通过增强对不同光照条件和视角的适应能力,进一步优化了模型的应用范围。经过数据增强处理后,获得了一个包含13 500张图像的扩展数据集。此数据集的增强显著提升了模型的鲁棒性,使其能够更有效地应对实际应用中的多样化和复杂环境。此外,增加的数据多样性有效地降低了模型过拟合的风险,并在一定程度上提高了模型对未知数据的泛化能力。这种方法通过在模型训练过程中引入更广泛的环境因素,不仅丰富了训练集的信息容量,还强化了在实际场景应用中模型面对不同环境挑战时的适应能力和稳定性。

    YOLOv5是一种高效的单阶段目标检测器,它不仅具有实时处理能力,而且在多种计算设备上都能展现出优异的性能表现。该模型采用深度学习技术来实现快速而准确的物体识别,通过端到端的方式直接从输入图像预测物体的类别和位置。为了解决白蚁活动迹象识别过程中遇到的颜色特征混淆和目标重叠问题,本文对原始的YOLOv5s模型进行了改进,设计并实现了ACP-YOLOv5s模型。如图2所示,该模型由以下主要部分组成:输入层(input)、骨干网络(backbone)、特征处理层颈部(neck)以及预测头(head)部分。在骨干网络的设计中,本研究特别替换了原始YOLOv5s模型中的跨区域连接CSP模块,引入了自适应颜色感知模块(ACP-Module)。该模块通过对颜色阈值进行预处理,能够显著增强模型对于不同颜色变化的感知能力,这对于在自然环境中准确识别具有复杂背景和相似颜色的白蚁迹象至关重要。此外,本研究还嵌入了一个高效的星乘模块(Star Block)到骨干网络中,该模块通过精细化的特征抽取过程,显著提升了模型对白蚁迹象的识别和检测能力。Star Block的设计允许更深层次的特征融合,从而使得模型能够捕获到更多细微的特征差异,这对于识别高度重叠的白蚁迹象尤为重要。针对部分迹象案例中难以区分的重叠问题,本研究还在模型颈部(neck)引入了CARFE上采样模块。此模块通过扩展感受野并重新组织特征,进一步增强了模型对于复杂场景的处理能力。CARFE上采样模块的应用,不仅优化了特征层面的信息流动,还为模型提供了更广泛的背景信息,从而实现更准确的目标检测和分类[18-20]

    图  2  ACP-YOLOv5s模型结构图
    注:P表示不同尺度的特征层;C代表在通道维度上进行拼接;CBS为一个标准的卷积块;CSP表示跨阶段部分网络结构。
    Figure  2.  ACP-YOLOv5s model architecture
    Note: P represents feature layers at different scales; C denotes concatenation along the channel dimension; CBS is a standard convolution block; CSP stands for cross stage partial network structure.

    泥被、泥线和分飞孔由土栖白蚁通过泥土构成,与其所处的环境土壤颜色几乎无差别,使得这些白蚁活动轨迹在视觉上与周围的自然环境颜色高度相似,进而导致显著的颜色重叠。这种颜色的混淆不仅难以区分,而且显著降低了自动目标识别模型的效果[21]。传统的图像处理技术往往难以区分这些细微的差异,为了提高白蚁活动轨迹的识别精度,并克服由于颜色特征集中带来的难题,本研究设计了自适应颜色感知模块(ACP-Module),如图3。该模块通过引入动态调整的阈值学习机制,可以根据不同的图像内容自动调整对颜色的感知范围。具体来说,该模块通过分析输入图像的颜色分布,智能地确定最佳的颜色阈值区间[low, high],并据此生成颜色掩码,如式(1)。

    图  3  自适应颜色感知模块结构图
    Figure  3.  Adaptive color perception module structure
    $$ {\text{mask = sigmoid(LightConv(1}} \cdot {\text{(low}} \leqslant x \leqslant {\text{high)))}} $$ (1)

    式中1·是指示函数,该函数能够将位于预设阈值范围[low, high]内的像素值设置为1,而将其他值设置为0。LightConv是一种轻量级卷积层,可以有效地减少计算复杂度,同时保持对特征的充分表达能力[22-23]。这种设计旨在优化模型的运行效率和处理速度,确保在保持高准确度的同时也能适用于资源受限的环境。使用sigmoid函数对轻量级卷积层的输出进行非线性激活,将特征值映射到0~1之间的区间[24]。这一步骤至关重要,它允许后续的处理过程中加权操作能够更精确地反映各个特征的重要性,从而提高模型对复杂数据的处理能力。阈值[low, high]不是固定的,而是通过网络的自适应学习过程得到的。这种自适应学习机制赋予了ACP-Module极高的灵活性,使其能够根据不同任务需求和数据分布的特性,调整颜色感知范围。在面对多样化和变化快速的白蚁活动迹象识别场景时,这种动态调整能力是模型优化颜色识别和处理过程中不可或缺的。接下来,将生成的掩码与输入特征进行逐元素乘法运算,如式(2)。

    $$ {\text{adjusted features}} = {\text{LightConv}}\left( x \right) \times {\text{mask}} $$ (2)

    输入特征x通过轻量级卷积层LightConv进行处理,该层旨在减少计算复杂度的同时保持对特征的有效表达。处理后的特征随即与一个掩码进行逐元素的乘法操作,此掩码定义了特定的颜色阈值范围。通过这一过程,生成的adjusted features能够突出那些重要的颜色特征,这一操作可以显著增强位于所定义颜色范围内的特征表达,从而提高模型对相关颜色特征的响应和识别能力。

    自适应颜色感知模块(ACP-Module)同时引入了星特征提取部分,利用其跨区域连接结构和Star Block架构,深入提取和细化图像环境中的复杂特征。Star Block结构结合了深度可分离卷积与多层感知机(MLP),通过这种结合,有效地提升了特征的处理效率与表达能力。Star Block的核心技术是星乘操作(star operation),为模型带来了显著的性能提升。星乘操作能够将输入特征映射到一个高维的非线性特征空间,这种映射不仅增加了特征的维度,也引入了复杂的非线性处理[25-27],极大地提高了模型对环境细微差异的感知能力。这意味着模型在白蚁活动迹象识别中能够更准确地区分泥被、泥线和分飞孔与周围土壤的细微色差,提高识别的准确性和效率。星乘操作本质上是一种元素级乘法操作,主要用于线性层之间的特征融合。这种特征融合策略不仅确保了来自不同数据源的特征能够有效地整合,而且显著提升了模型在处理高度相关和复杂数据集时的稳定性与泛化能力。通过实施星乘操作,Star Block为模型提供了一种有效的方法来加强特征之间的信息流动和融合,从而使模型在面对环境的不确定性和变化时表现出更高的适应性和响应能力,能够在保持低计算资源消耗的前提下,实现对特征的深入细化与增强。这一特性在复杂的自然环境中进行精确检测白蚁活动迹象时显得尤为关键,其形式化表达为${\boldsymbol{w}}_{\text{1}}^{\text{T}}{\boldsymbol{x}} * {\boldsymbol{w}}_2^{\text{T}}{\boldsymbol{x}}$,其中 $ {{\boldsymbol{w}}}_{1}^{\mathrm{T}} $和$ {{\boldsymbol{w}}}_{2}^{\mathrm{T}} $分别表示2个线性变换权重矩阵,x表示输入特征向量,转换后的特征向量进一步通过元素级乘法相互结合,形成一个新的特征向量。这种操作与核方法中使用的高维映射技术具有显著的相似性[28]。核方法通过将数据映射到一个高维空间来解决在原始空间中线性不可分的问题。类似地,通过星乘操作,原始的输入特征被转换成一个高度非线性的特征表示,这使得原本在较低维度空间中难以区分的模式变得更加明显和可分。这种映射效果不仅提升了模型在复杂数据集上的分类和回归性能,而且由于其隐式地实现了维度扩展,因此无需直接增加网络的宽度或复杂度。将星乘操作具体展开如式 (3),其中αij为每项特征交互项的系数,这一展开形式描述了星乘操作的非线性本质。

    $$ y={\displaystyle \sum _{i=1}^{d}{\displaystyle \sum _{j=1}^{d}{w}_{i1}}}{x}_{i}\cdot{w}_{j2}{x}_{j}={\displaystyle \sum _{i=1}^{d}{\displaystyle \sum _{j=1}^{d}{\alpha }_{ij}}}{x}_{i}{x}_{j} $$ (3)

    本研究中Star Block模块采用深度可分离卷积(标记为dwconv和dwconv2)以及1×1卷积(标记为f1和f2)的结合,构建了一个既高效又能够进行复杂非线性表达的特征提取结构。具体而言,输入特征首先经过深度可分离卷积dwconv进行预处理,该步骤旨在通过降低参数数量而保持计算效率,同时保证特征的有效表达。接下来,处理后的特征被同时送入2个并行的1×1卷积分支(f1和f2),在这2个分支中,特征分别被进一步转换,以生成多样化的特征表示。这些新生成的特征通过ReLU6激活函数进行非线性激活,此激活不仅增强了模型对特征的动态响应能力,还引入了必要的非线性特性,为后续的特征交互提供了基础[29-30]。经过激活的特征随后在元素级别进行乘法运算,这一步显著地增强了特征间的非线性交互,进一步提升了模型在处理复杂数据时的表达能力。元素级乘法的结果通过另一层深度可分离卷积dwconv2进行处理,该层不仅进一步细化特征,还通过DropPath技术进行正则化,从而增强了模型的泛化能力,并防止过拟合[31]。星特征提取模块(star feature extraction)将输入特征分为2个分支:一个分支通过轻量级卷积层LightConv直接处理得到y1,另一个分支则先通过LightConv进行初步特征提取后,进一步经过Star Block来细化特征得到y2。2个分支的输出通过元素级的加和与通道维度的拼接操作进行特征聚合。这一步骤不仅保留了各分支的特征独立性,还通过融合,增强了特征间的互补性,从而提高了特征表示的丰富性和鲁棒性。最终,聚合后的特征通过另一层轻量级卷积层LightConv进行进一步的融合处理,如式(4)。LightConv是由标准卷积、深度可分离卷积和ReLU激活函数组成的复合操作,其定义如式(5)。此操作策略有效地降低了计算复杂度,同时确保了特征表达的丰富性。通过轻量级卷积层LightConv和Star Block,模块能够在不牺牲特征质量的前提下,显著优化处理速度和资源消耗。这种平衡在处理大规模或复杂数据集时尤为重要,使得该模块不仅适用于高端计算设备,也能在资源有限的环境中发挥出色性能。

    $$ y = {\text{LightConv}}({\text{Concat}}({y_1},{y_2})) $$ (4)
    $$ {\text{LightConv}} = {\text{ReLU}}({\text{Conv}}({\text{DwConv}}(x))) $$ (5)

    通过将颜色感知与星特征提取部分有机结合,自适应颜色感知模块(ACP-Module)能够自适应地提取并增强输入特征。颜色感知部分采用了一种可学习的阈值机制,这一机制能够根据输入数据的具体情况动态调整颜色特征的提取与增强。继而,星特征提取部分通过深度学习技术进一步挖掘这些特征的深层表示,从而增强模型对数据的理解能力。最终生成的特征图融合了颜色感知的自适应能力与星特征提取的深度特征分析,为后续的任务提供了高效且稳健的特征表示。这种综合的特征处理方法不仅提高了特征的表达能力,也优化了模型对复杂场景的适应性和预测准确性。通过这样的技术创新,ACP-Module展现了在处理高度复杂的白蚁活动迹象视觉数据时的显著优势,使其在多种应用场景中都能实现卓越性能表现。

    CARAFE(content-aware reassembly of features)模块是一种基于内容感知的特征重组上采样技术,专为通过自适应卷积核对输入特征图进行高质量上采样而设计[32]。在应用于泥被、泥线和分飞孔这3种白蚁活动迹象的背景下,CARAFE模块的内容感知特性尤为关键。它能够根据白蚁活动轨迹的特定特征适应性地调整上采样过程,从而更精确地恢复白蚁活动迹象的细节和结构。本模块的工作原理主要分为2个步骤:首先,根据每个目标位置的具体内容预测重组核;其次,利用这些预测的核来重组特征。给定一个大小为$ C\times H\times W $的特征图$ X $和一个上采样率$ \mathrm{\sigma } $,CARAFE将生成一个大小为$ C\times \mathrm{\sigma }H\times \mathrm{\sigma }W $的新特征图$ X\mathrm{{{'}}} $。对于输出$ X\mathrm{{{'}}} $的任何目标位置$ l\mathrm{{{'}}} $,在输入特征图$ X $处都有一个对应的源位置$ l $。式(6)中N(Xl,kencoder)表示以l为中心特征图$ X $的$ k\times k $子区域。核预测块ψ为每个目标位置$ l\mathrm{{{'}}} $预测一个位置核Wl'。其重组步骤如式(7),其中ɸ是内容感知重组模块,它将Xl的邻居与核Wl' 进行重组。

    $$ {W_{{l^{{'}}}}} = \psi (N({X_l},{k_{{\text{encoder}}}})) $$ (6)
    $$ X_{{l^{{'}}}}^{{'}} = \phi (N({X_l},{k_{{\text{up}}}}),{W_{{l^{{'}}}}}) $$ (7)

    本研究中,CARAFE模块通过其多个子组件的协同工作,有效地实现了特征的压缩、编码、重排和重组,从而达到最终的特征增强效果。这一模块的实现包括以下4个关键步骤,每个步骤都针对特定的处理目标设计,以优化特征图的质量并增强其内容感知能力,适用于复杂背景下的白蚁活动迹象识别。第一个步骤为特征压缩,输入的特征图$ X $首先通过一个卷积层进行通道压缩,输出中间特征图$ W $,如式(8)。这一通道压缩过程有助于减少模型的计算负担,并且过滤掉非关键信息,仅保留对后续步骤最有价值的特征,为高效特征处理建立基础。第二个步骤是特征编码,使用另一个卷积层对中间特征图$ W $进行进一步的编码,生成高维特征图$ Z $,用于表征每个像素的重组权重,如式(9)。这一步骤通过编码更深层次的特征信息,增强了模型对于特征细节的捕捉能力,使得模型能够更精确地理解和重组原始特征[33]。第三个步骤为像素重排,编码后的特征图Wenc经过Pixel Shuffle操作重新排列成重组卷积核的形状,如式(10)。Pixel Shuffle操作通过重排像素点来匹配预定的重组核结构,这不仅提高了特征图的空间分辨率,还为高质量的特征重组准备了合适的结构形态[34]。最后一个步骤为特征展开与重组,对输入特征图$ X $进行Unfold操作,以展开特征并匹配重组卷积核的尺寸。然后通过将重组权重应用于展开的特征图,完成特征的重组,如式(11)。这一步骤是实现特征增强的关键,它不仅提高了特征的表达力,还确保了上采样过程中内容的完整性和准确性。

    $$ W = {\text{Conv}}(X),W \in {R^{b \times {c_{mid}} \times h \times w}} $$ (8)
    $$ {W_{{\text{enc}}}} = {\text{Conv}}(W),{W_{{\text{enc}}}} \in {R^{b \times {{(scale \times {k_{up}})}^2} \times h \times w}} $$ (9)
    $$ \begin{split} & {W}_{\text{shuffled}}=\text{PixelShuffle}({W}_{\text{enc}})\text{,}{W}_{\text{shuffled}}\in {R}^{b\times {k}_{{\mathrm{up}}}^{2}\times {h}^{{{'}}}\times {w}^{{{'}}}}\text{,}\\ & {h}^{{{'}}}=h\times \text{scale},{w}^{{{'}}}=w\times \text{scale}\\[-1pt] \end{split} $$ (10)
    $$ \begin{split} & {X}_{\text{unfolded}}=\text{Unfold}({X}_{\text{upsampled}})\text{,}{X}_{\text{unfolded}}\in {R}^{b\times c\times {k}_{{\mathrm{up}}}^{\text{2}}\times {h}^{{{'}}}\times {w}^{{{'}}}}\text{,}\\ & {X}_{\text{out}}={\displaystyle \sum _{i=1}^{{k}_{{\mathrm{up}}}^{2}}{W}_{\text{shuffled}}}\times {X}_{\text{unfolded}} \\[-1pt] \end{split} $$ (11)

    式中R代表实数域,b代表批次大小,cmid代表网络中间层的输出通道数,hw代表特征图的高度和宽度;scale代表上采样的倍数,kup表示通道拆分因子;Wshuffled表示经过PixelShuffle操作后的特征图;h'w'表示空间分辨率;Xupsampled表示特征图,Xunfolded表示进行Unfold后的结果,c表示卷积层输出通道数;Xout是最终输出。

    通过上述步骤,CARAFE模块显著提高了对白蚁活动迹象的识别准确性和处理效率。在处理复杂自然环境下的识别任务中,特别是针对泥被、泥线和分飞孔等特定的白蚁活动迹象,该模块所采用的内容感知上采样技术能够有效增强图像特征的局部细节表达。这种技术大大增强了特征图的清晰度和精确度。CARAFE模块的应用不仅优化了特征处理流程,还通过提供高质量的特征图确保ACP-YOLOv5s模型在多变且复杂的自然环境中的稳定性和准确性。

    在操作系统Windows 10中使用Python3.8.13作为系统整体编写语言,深度学习模型框架为Pytorch1.11.0,CUDA版本为11.3.1,CUDNN版本为8.0。ACP-YOLOv5s所使用的服务器硬件配置如下:处理器为Intel(R) Xeon(R) Platinum 8124M CPU,主频为3.00 GHz,内存为128 GB,显卡为NVIDIA GeForce RTX 3090(24 GB)。在本试验中,每次迭代训练的样本数量(batchsize)设置为4,整个训练过程进行了200次迭代(epoch)。这样的设置旨在缩短训练时间并降低过拟合的风险。为确保试验结果的一致性和可比性,后续的所有对比试验均使用相同的训练参数。

    通过精确率(P)、召回率(R)、平均精度均值(mAP50)、浮点运算数(giga floating-point operations per second,GFLOPS)、参数(params)、模型大小(model size) 比较不同模型对白蚁活动迹象检测的性能,计算式如式(12)~式(14)。

    $$ P = \frac{{{T_{\text{P}}}}}{{{T_{\text{P}}} + {F_{\text{P}}}}} $$ (12)
    $$ R = \frac{{{T_{\text{P}}}}}{{{T_{\text{P}}} + {F_{\text{N}}}}} $$ (13)
    $$ \begin{gathered}\text{AP}=\int_0^1P(R)\text{d}R \\ \text{mAP50}=\frac{1}{N}\sum\limits_{i=1}^N\text{A}\text{P}_i \\ \end{gathered} $$ (14)

    式中TP表示实际为正类并且被模型预测为正类的实例,FP表示实际为负类但模型错误地将其预测为正类的实例,TN表示实际为负类并且被模型正确预测为负类的实例,FN表示实际是正类但模型错误预测为负类的实例。mAP50的计算涉及到首先为每个类别计算平均精确率(average precision,AP),然后取这些值的平均值。P(R)是修正后的精确率(precision)关于召回率(recall)的函数,N是类别的数量,APi是第i个类别的AP值。

    将原始YOLOv5s模型中的跨区域连接CSP模块替换为自适应颜色感知模块(ACP-Module)后,模型在特征提取能力及处理颜色混淆方面显示出了明显的改善。图4展示了引入ACP-Module前后对白蚁分飞孔识别情况的对比。白蚁分飞孔通常出现在地表,并且在被落叶覆盖的自然环境中难以直接观察到。分飞孔周围落叶和泥土的颜色混淆也会对识别效果产生不利影响。通过图4可以观察到在原有模型基础上加入ACP-Module后,模型的特征提取及颜色感知能力显著提升,可检测到图中左上位置改进前模型未成功识别的小目标视野分飞孔,完成对图中所有分飞孔目标的检测,同时有效减少了复杂场景下对周围泥土、枯叶等干扰物体的误识别。这一改进不仅增强了模型的实际应用效果,也为在颜色混淆情况严重的环境中进行精确目标检测提供了有力支持。

    图  4  引入ACP-Moudle前后模型识别效果对比
    Figure  4.  Comparison of model recognition performance before and after incorporating the ACP-Module

    本研究分别在模型的所有部分(All)、头部与颈部结合体(Neck(Head))、骨干网络(Backbone)进行引入ACP-Moudle模块,表1是ACP-Moudle替换不同位置CSP模块的试验效果。从表中数据可以看出,当ACP-Module替换骨干网络中的CSP模块时,模型的精确率达到了88.3%,这是3种配置中最高的,比全部替换提升了0.7个百分点,比仅替换头部与颈部结合体提升了0.6个百分点。同时,此配置下的mAP50值达到91.3%,同样是所有配置中最高的,较全部替换提高了0.8个百分点,与仅替换头部与颈部结合体相比提高了4.1个百分点。这说明在骨干网络中应用ACP-Module可以更有效地提升模型的整体识别能力。骨干网络中应用ACP-Module所需的浮点运算数(24.8)和模型大小(19.3 MB)相比于全部替换的配置(GFLOPS为35.0、大小为27.7 MB)显著减少了计算资源的需求。将ACP-Module应用于骨干网络不仅提升了模型的识别性能,也在保持较低资源消耗的同时,实现对复杂场景的有效处理。图5展示了YOLOv5s与ACP-Module替换到模型中不同的3个位置的mAP50对比情况,结果表明将ACP-Module替换到模型Bcakbone部分后,mAP50值要高于替换到其他2个位置的情况,并且相比原始YOLOv5s模型也有了明显的提升。

    表  1  ACP-Moudle替换不同位置CSP模块的试验结果
    Table  1.  Experimental results of replacing CSP modules with ACP-Module at different position
    替换位置
    Replace
    精确率
    Precision/ %
    召回率
    Recall/ %
    mAP50/% 浮点运
    算数
    GFLOPS
    参数
    Parameters
    模型大小
    Model
    size/MB
    所有部分All 87.6 86.7 90.5 35.0 13647876 27.7
    头部与颈部
    结合体
    Neck(Head)
    87.7 81.6 87.2 25.9 9774205 19.9
    骨干网络
    Backbone
    88.3 86.2 91.3 24.8 9430565 19.3
    下载: 导出CSV 
    | 显示表格

    本研究针对土栖白蚁活动迹象检测与识别进行了算法上的改进,设计了ACP-YOLOv5s模型,具体结果如表2。引入自适应颜色感知模块(ACP-Module)和CARFE上采样模块的ACP-YOLOv5s模型,在性能上相较于未添加任何模块的原始模型展现了显著提升。ACP-YOLOv5s模型的精确率提高到91.2%,增加了5个百分点;平均精确度均值提升到92.3%,增加了2.9个百分点。这表明集成了ACP-Module和CARFE模块的模型在复杂环境下具有更高的识别精确性和更优的整体性能,在处理颜色混淆和提取细节特征方面表现出色。当单独使用ACP-Module时,模型的精确率和mAP50分别达到88.3%和91.3%,显示出该模块在提升模型的整体识别精度方面的有效性。与原始模型相比,单独使用CARFE模块虽然能略微提升召回率,但其精确率和mAP50相比单独使用ACP-Module有所下降。这表明虽然CARFE模块对提高模型对正样本的识别有一定帮助,但在综合性能上仍有所不足。与ACP-YOLOv5s相比,虽然单独的模块改进可以在某些方面提升性能,但完整的ACP-YOLOv5s模型在综合处理颜色混淆和提升识别精度方面的表现要显著优于单独模块的效果。因此,整合ACP-Module和CARFE模块的ACP-YOLOv5s模型在面对复杂场景的白蚁活动迹象识别任务时是一个更为有效的解决方案,能够提供更准确和更具鲁棒性的识别结果。

    表  2  消融试验结果对比
    Table  2.  Comparison of ablation study results
    ACP-
    Moudle
    CARFE 精确率
    Precision/%
    召回率
    Recall/%
    mAP50/% 浮点运
    算数
    GFLOPS
    参数
    Parameters
    模型
    大小
    Model
    size/MB
    86.2 84.7 89.4 23.8 9112697 18.5
    88.3 86.2 91.3 24.8 9430565 19.3
    87.8 85.1 90.4 24.1 9252801 18.8
    91.2 87.7 92.3 25.1 9585501 19.6
    下载: 导出CSV 
    | 显示表格
    图  5  YOLOv5s与ACP-Module不同替换位置前后对比
    Figure  5.  Comparison of YOLOv5s with ACP-Module at different replacement positions before and after

    为了验证改进后ACP-YOLOv5s模型的有效性,将ACP-YOLOv5s模型与当前主流目标检测模型进行对比,结果如表3所示。在对多个主流目标检测模型进行性能比较中,ACP-YOLOv5s模型表现出显著的优势,特别是在平均精度均值方面。与Faster R-CNN相比,ACP-YOLOv5s的mAP50提高了6.7个百分点,展现了其在处理复杂场景下的强大能力。与YOLOv5s和YOLOv5m相比,mAP50分别提升了2.9个和1.4个百分点,证明了ACP-YOLOv5s在细节捕捉和准确性方面的改进。此外,与YOLOv8和YOLOv9的比较也分别显示了2.2个和0.4个百分点的提升。这些数据强调了在颜色混淆环境中ACP-YOLOv5s通过引入自适应颜色感知模块带来的性能提升,使得该模型不仅在试验测试中表现优异,也极具实际应用部署的潜力。虽然YOLOv9模型的平均精度均值达到91.9%,但YOLOv9的浮点运算数和模型大小均较大,GFLOPS为102.3、大小为51.6 MB,这在资源受限的实际部署环境中不太可行。相比之下,ACP-YOLOv5s在保持较低的浮点运算需求(GFLOPS25.1)和模型大小(19.6 MB)的同时,提供了比YOLOv9更优的检测性能。这一优势使得ACP-YOLOv5s不仅适合于高精度的应用场景,也非常适合在边缘设备上部署。综合来看,ACP-YOLOv5s模型显著提升了对复杂场景中目标的识别能力,表现出在白蚁活动迹象识别应用中较高的边缘部署潜力和实际应用价值。

    表  3  不同模型试验结果对比
    Table  3.  Comparison of experimental results between different models
    模型
    Model
    精确率
    Precision/
    %
    召回率
    Recall/
    %
    mAP50/%
    浮点运算数
    GFLOPS
    参数
    Parameters
    模型大小
    Model
    size/MB
    Faster-RCNN 85.9 85.4 85.6 120.3 42736728 163.1
    YOLOv5s 86.2 84.7 89.4 23.8 9112697 18.5
    YOLOv5m 87.8 86.6 90.9 64.0 25046953 50.5
    YOLOv8 83.3 87.6 90.1 28.4 11126745 22.5
    YOLOv9 91.1 84.6 91.9 102.3 25321561 51.6
    ACP-YOLOv5s 91.2 87.7 92.3 25.1 9585501 19.6
    下载: 导出CSV 
    | 显示表格

    图6详细展示了YOLO系列模型在识别泥被、泥线和分飞孔3种白蚁活动迹象方面的性能。从图中观察到,ACP-YOLOv5s模型在处理白蚁活动迹象中颜色混淆问题以及减少检测框的冗余和重复方面表现出显著的优势。特别是在识别泥线时,ACP-YOLOv5s能够准确地标出其具体位置,而其他模型如YOLOv5s、YOLOv5 m、YOLOv8和YOLOv9在这一任务上往往表现出检测框冗余和定位不准确的问题。在识别泥被的任务上,ACP-YOLOv5s同样展示了较高的准确率,这进一步证明了其在处理复杂背景下的有效性。当涉及到识别分飞孔这一具有挑战性的任务时,其他模型通常由于周围环境中颜色相近的物体影响而产生误识别。ACP-YOLOv5s模型有效地克服了这一问题,能够精确识别图像中所有分飞孔并且没有发生误识别现象。这些结果强调了ACP-YOLOv5s在提高模型对白蚁活动迹象识别精度和减少误识别方面的显著改进。该模型的优化策略不仅提升了其在试验条件下的表现,也展现了在实际应用中处理环境复杂性的潜力,使其成为在土栖白蚁活动迹象监测与白蚁蚁害管理领域中极具价值的工具。

    图  6  不同模型识别效果对比
    Figure  6.  Comparison of recognition performance between different models

    为精准识别土栖白蚁活动迹象,基于YOLOv5s架构提出了改进型的ACP-YOLOv5s识别模型,主要研究结论如下:

    1)引入了自适应颜色感知模块(ACP-Module),用以替换原始YOLOv5s模型中的跨区域连接CSP模块。ACP-Module通过动态调整颜色感知阈值,有效增强了模型处理颜色混淆问题的能力,改善了模型在颜色复杂环境中的识别性能。在模型的颈部引入了CARFE上采样模块,这一方法不仅扩大了感受野,还重新组织了特征表示,从而显著提高了模型在解析复杂场景时的能力,提升了模型准确率。改进后ACP-YOLOv5s模型与原始网络相比精确率提升了5个百分点,平均精度均值提升了2.9个百分点。

    2)本研究提出的ACP-YOLOv5s模型能精确识别并精准定位出泥被、泥线和分飞孔这3种土栖白蚁活动迹象,与Faster R-CNN、YOLOv5s、YOLOv5 m、YOLOv8和YOLOv9相比,精确率分别提升了5.3、5.0、3.4、7.9和0.1个百分点,平均精度均值分别提升了6.7、2.9、1.4、2.2和0.4个百分点,这表明在综合性能上ACP-YOLOv5s表现出了较强的优越性。

    在比较ACP-YOLOv5s模型与其他YOLO系列检测器的性能时,ACP-YOLOv5s展示了在处理白蚁活动迹象中特别棘手的颜色混淆问题以及减少检测框冗余和重复方面的显著优势。该模型能够精确地标注出白蚁活动迹象的具体位置,有效地克服了由周围环境中颜色相近物体所引发的误识别问题。ACP-YOLOv5s显著提高了在多变光照和复杂背景条件的识别准确率,增强了模型在区分色调接近对象时的能力,减少了检测框的冗余,提高了检测效率。ACP-YOLOv5s模型具备较小的模型体积和较低的浮点运算需求,符合实际应用环境中的部署要求,适合在无人监测设备中进行高效部署。在土栖白蚁活动迹象的识别领域,该模型表现出卓越的性能,能够进行持续的自动化监测,大幅提升了检测效率。在实际应用中,针对复杂林下环境肉眼难以准确识别白蚁迹象,ACP-YOLOv5s模型通过自适应颜色感知模块等技术优势,能够精准、高效地识别这些难以察觉的迹象。因此,该模型在水利工程和园林树木的白蚁防治上具有显著的实用价值,未来将为白蚁监测提供强有力的技术支持。相比于人工普查的耗时性且受限于人的疲劳状况和观察能力等缺陷,ACP-YOLOv5s算法可在短时间内完成精准检测,同时该算法未来可应用于无人车等无人监测设备平台,有效弥补人工监测过程中可能出现的遗漏与误判,提升白蚁活动迹象监测智能化水平,为水利工程和园林树木白蚁监测与防治提供强有力的工具。

  • 图  1   土栖白蚁活动迹象数据集

    注:框中为白蚁活动迹象。

    Figure  1.   Soil-dwelling termite activity trace dataset

    Note:Termite activity trace is circled.

    图  2   ACP-YOLOv5s模型结构图

    注:P表示不同尺度的特征层;C代表在通道维度上进行拼接;CBS为一个标准的卷积块;CSP表示跨阶段部分网络结构。

    Figure  2.   ACP-YOLOv5s model architecture

    Note: P represents feature layers at different scales; C denotes concatenation along the channel dimension; CBS is a standard convolution block; CSP stands for cross stage partial network structure.

    图  3   自适应颜色感知模块结构图

    Figure  3.   Adaptive color perception module structure

    图  4   引入ACP-Moudle前后模型识别效果对比

    Figure  4.   Comparison of model recognition performance before and after incorporating the ACP-Module

    图  5   YOLOv5s与ACP-Module不同替换位置前后对比

    Figure  5.   Comparison of YOLOv5s with ACP-Module at different replacement positions before and after

    图  6   不同模型识别效果对比

    Figure  6.   Comparison of recognition performance between different models

    表  1   ACP-Moudle替换不同位置CSP模块的试验结果

    Table  1   Experimental results of replacing CSP modules with ACP-Module at different position

    替换位置
    Replace
    精确率
    Precision/ %
    召回率
    Recall/ %
    mAP50/% 浮点运
    算数
    GFLOPS
    参数
    Parameters
    模型大小
    Model
    size/MB
    所有部分All 87.6 86.7 90.5 35.0 13647876 27.7
    头部与颈部
    结合体
    Neck(Head)
    87.7 81.6 87.2 25.9 9774205 19.9
    骨干网络
    Backbone
    88.3 86.2 91.3 24.8 9430565 19.3
    下载: 导出CSV

    表  2   消融试验结果对比

    Table  2   Comparison of ablation study results

    ACP-
    Moudle
    CARFE 精确率
    Precision/%
    召回率
    Recall/%
    mAP50/% 浮点运
    算数
    GFLOPS
    参数
    Parameters
    模型
    大小
    Model
    size/MB
    86.2 84.7 89.4 23.8 9112697 18.5
    88.3 86.2 91.3 24.8 9430565 19.3
    87.8 85.1 90.4 24.1 9252801 18.8
    91.2 87.7 92.3 25.1 9585501 19.6
    下载: 导出CSV

    表  3   不同模型试验结果对比

    Table  3   Comparison of experimental results between different models

    模型
    Model
    精确率
    Precision/
    %
    召回率
    Recall/
    %
    mAP50/%
    浮点运算数
    GFLOPS
    参数
    Parameters
    模型大小
    Model
    size/MB
    Faster-RCNN 85.9 85.4 85.6 120.3 42736728 163.1
    YOLOv5s 86.2 84.7 89.4 23.8 9112697 18.5
    YOLOv5m 87.8 86.6 90.9 64.0 25046953 50.5
    YOLOv8 83.3 87.6 90.1 28.4 11126745 22.5
    YOLOv9 91.1 84.6 91.9 102.3 25321561 51.6
    ACP-YOLOv5s 91.2 87.7 92.3 25.1 9585501 19.6
    下载: 导出CSV
  • [1] 李栋,赵元,饶绮珍,等. 中国堤坝白蚁主要危害种类的分布及其巢居结构的特征[J]. 白蚁科技,1999(1):1-8.
    [2] 黄求应,李刚华,刘龙,等. 堤坝白蚁习性规律及其生物防治技术研究进展[J]. 中国水利,2023(15):54-59,53

    HUANG Qiuying, LI Ganghua, LIU Long, et al. Advances in rules of living habits and technologies of biological control on termites in dams and embankments[J]. China Water Resources, 2023(15): 54-59,53. (in Chinese with English abstract)

    [3] 张峰,胡伟,陈龙佳. 湖北水利工程白蚁防治施工定额编制及应用[J]. 中国水利,2023(6):44-46

    ZHANG Feng, HU Wei, CHEN Longjia, et al. Preparation and application of quota for termite control in project construction of Hubei Province[J]. China Water Resources, 2023(6): 44-46. (in Chinese with English abstract)

    [4]

    GIRSHICK R, DONAHUE J, DARRELL T, et al. Region-based convolutional networks for accurate object detection and segmentation[J]. IEEE transactions on pattern analysis and machine intelligence, 2015, 38(1): 142-158.

    [5]

    HE K, GKIOXARI G, DOLLÁR P, et al. Mask r-cnn[C]//Proceedings of the IEEE International Conference on Computer Vision. 2017: 2961-2969.

    [6]

    REN S, HE K, GIRSHICK R, et al. Faster R-CNN: Towards real-time object detection with region proposal networks[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2016, 39(6): 1137-1149.

    [7]

    LIU W, ANGUELOV D, ERHAN D, et al. Ssd: Single shot multibox detector[M]//Computer Vision–ECCV 2016: 14th European Conference. Berlin: Springer International Publishing, 2016: 21-37.

    [8]

    REDMON J. You only look once: Unified, real-time object detection[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Las Vegas:IEEE, 2016: 779-788.

    [9] 胡彦军,张平川,张彩虹,等. 基于改进Mask-RCNN的桃树穿孔病检测研究[J]. 沈阳农业大学学报,2023,54(6):702-711.

    HU Yanjun, ZHANG Pingchuan, ZHANG Caihong, et al. Study on peach shot-hole disease detection based on improved Mask-RCNN[J]. Journal of Shenyang Agricultural University, 2023, 54(6): 702-711. (in Chinese with English abstract)

    [10] 姜晟,曹亚芃,刘梓伊,等. 基于改进Faster RCNN的茶叶叶部病害识别[J]. 华中农业大学学报,2024,43(5):41-50

    JIANG Sheng, CAO Yapeng, LIU Ziyi, et al. Recognition of tea leaf disease based on improved Faster RCNN[J]. Journal of Huazhong Agricultural University, 2024, 43(5): 41-50. (in Chinese with English abstract)

    [11] 彭红星,黄博,邵园园,等. 自然环境下多类水果采摘目标识别的通用改进SSD模型[J]. 农业工程学报,2018,34(16):155-162

    PENG Hongxing, HUANG Bo, SHAO Yuanyuan, et al. General improved SSD model for picking object recognition of multiple fruits in natural environment[J]. Transactions of the Chinese Society of Agricultural Engineering(Transactions of the CSAE), 2018, 34(16): 155-162. (in Chinese with English abstract)

    [12] 郭嘉璇,王蓉芳,南江华,等. 融入全局相应归一化注意力机制的YOLOv5农作物害虫识别模型[J]. 农业工程学报,2024,40(8):159-170

    GUO Jiaxuan, WANG Rongfang, NAN Jianghua, et al. YOLOv5 model integrated with GRN attention mechanism for insect pest recognition[J]. Transactions of the Chinese Society of Agricultural Engineering(Transactions of the CSAE), 2024, 40(8): 159-170. (in Chinese with English abstract)

    [13] 赵辉,黄镖,王红君,等. 基于改进YOLO v7的农田复杂环境下害虫识别算法研究[J]. 农业机械学报,2023,54(10):246-254

    ZHAO Hui, HUANG Biao, WANG Hongjun, et al. Pest identification method in complex farmland environment based on improved YOLOv7[J]. Transactions of the Chinese Society for Agricultural Machinery, 2023, 54(10): 246-254. (in Chinese with English abstract)

    [14]

    ZHU R, HAO F, MA D. Research on polygon pest-infected leaf region detection based on YOLOv8[J]. Agriculture, 2023, 13(12): 2253. DOI: 10.3390/agriculture13122253

    [15] 化春键,黄宇峰,蒋毅,等. 基于改进YOLOv7的田间环境下食用玫瑰检测方法[J/OL]. 南京农业大学学报,1-13[2024-10-14]. http://kns. cnki. net/kcms/detail/32.1148. s. 20240531.1618. 002. html.

    HUA Chunjian, HUANG Yufeng, JIANG Yi, et al. Method for detecting edible roses in field environment based on improved YOLOv7[J/OL]. Journal of Nanjing Agricultural University, 1-13[2024-10-14]. http://kns.cnki.net/kcms/detail/32.1148.s.20240531.1618.002.html. (in Chinese with English abstract)

    [16]

    KARLINSKY L, SHTOK J, ALFASSY A, et al. Starnet: towards weakly supervised few-shot object detection[C]//Proceedings of the AAAI Conference on Artificial Intelligence.Vancouver:AAAI, 2021, 35(2): 1743-1753.

    [17] 水利部办公厅关于印发《水利工程白蚁防治技术指南(试行)》的通知[J]. 中华人民共和国水利部公报,2023(3):55.
    [18]

    MA X, DAI X, BAI Y, et al. Rewrite the Stars[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition.Seattle:IEEE, 2024: 5694-5703.

    [19]

    WANG J, CHEN K, XU R, et al. Carafe: Content-aware reassembly of features[C]//Proceedings of the IEEE/CVF International Conference on Computer Vision. Seoul: IEEE, 2019: 3007-3016.

    [20] 熊俊涛,韩咏林,王潇,等. 基于YOLO v5-Lite的自然环境木瓜成熟度检测方法[J]. 农业机械学报,2023,54(6):243-252

    XIONG Juntao, HAN Yonglin, WANG Xiao, et al. Method of maturity detection for papaya fruits in natural environment based on YOLO v5-Lite[J]. Transactions of the Chinese Society for Agricultural Machinery, 2023, 54(6): 243-252. (in Chinese with English abstract)

    [21] 闫兴达,冯云剑. 基于颜色和纹理特征匹配的集装箱视觉识别与定位方法[J]. 工业控制计算机,2024,37(1):100-102.

    YAN Xingda, FENG Yunjian. Container visual recognition and positioning method based on color and texture feature matching[J]. Industrial Control Computer, 2024, 37(1): 100-102. (in Chinese with English abstract)

    [22]

    BAO W, YANG X, LIANG D, et al. Lightweight convolutional neural network model for field wheat ear disease identification[J]. Computers and Electronics in Agriculture, 2021, 189: 106367. DOI: 10.1016/j.compag.2021.106367

    [23]

    NING H, LIU S, ZHU Q, et al. Convolutional neural network in rice disease recognition: accuracy, speed and lightweight[J]. Frontiers in Plant Science, 2023, 14: 1269371. DOI: 10.3389/fpls.2023.1269371

    [24]

    PENG Q, CHEN L, NIKLAS K J, et al. Comparison of three sigmoidal functions describing the leaf growth of Camptotheca acuminata Decne[J]. Ecological Modelling, 2023, 486: 110531. DOI: 10.1016/j.ecolmodel.2023.110531

    [25]

    WANG C Y, LIAO H Y M, WU Y H, et al. CSPNet: A new backbone that can enhance learning capability of CNN[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition Workshops. Seattle: IEEE, 2020: 390-391.

    [26] 陈毅飞,杨会民,马艳,等. 基于多层感知机的温室内番茄茎直径变化预测模型[J]. 新疆农业科学,2020,57(3):562-571

    CHEN Yifei, YANG Huimin, MA Yan, et al. The research of the prediction model of stem diameter variation based on multilayer perceptron for greenhouse tomato[J]. Xinjiang Agricultural Sciences, 2020, 57(3): 562-571. (in Chinese with English abstract)

    [27]

    MYSTKOWSKI A, WOLNIAKOWSKI A, IDZKOWSKI A, et al. Measurement and diagnostic system for detecting and classifying faults in the rotary hay tedder using multilayer perceptron neural networks[J]. Engineering Applications of Artificial Intelligence, 2024, 133: 108513. DOI: 10.1016/j.engappai.2024.108513

    [28]

    EGGINGER S, SAKHNENKO A, LORENZ J M. A hyperparameter study for quantum kernel methods[J]. Quantum Machine Intelligence, 2024, 6(2): 44. DOI: 10.48550/arXiv.2310.11891

    [29]

    ADITHIYA S V , DHARANI B G, RAJIV R . Automatic identification and severity classification of retinal biomarkers in SD-OCT using dilated depthwise separable convolution ResNet with SVM Classifier[J]. Current Eye Research, 2024, 49(5): 513-523.

    [30] 甘雨,郭庆文,王春桃,等. 基于改进EfficientNet模型的作物害虫识别[J]. 农业工程学报,2022,38(1):203-211

    GAN Yu, GUO Qingwen, WANG Chuntao, et al. Recognizing crop pests using an improved EfficientNet model[J]. Transactions of the Chinese Society of Agricultural Engineering(Transactions of the CSAE), 2022, 38(1): 203-211. (in Chinese with English abstract)

    [31] 陈海明,王进,张琳钰,等. 基于维度融合注意力的行人重识别[J]. 计算机工程与设计,2024,45(3):904-910

    CHEN Haiming, WANG Jin, ZHANG Linyu, et al. Person re-identification based on dimension fusion attention[J]. Computer Engineering and Design, 2024, 45(3): 904-910. (in Chinese with English abstract)

    [32] 马超伟,张浩,马新明,等. 基于改进YOLOv8的轻量化小麦病害检测方法[J]. 农业工程学报,2024,40(5):187-195.

    MA Chaowei, ZHANG Hao, MA Xinming, et al. Method for the lightweight detection of wheat disease using improved YOLOv8[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2024, 40(5): 187-195. (in Chinese with English abstract)

    [33]

    ZENG W, HE M. Rice disease segmentation method based on CBAM-CARAFE-DeepLabv3+[J]. Crop Protection, 2024, 180: 106665. DOI: 10.1016/j.cropro.2024.106665

    [34]

    ZHOU S, ZHAO J, SHI Y S, et al. Research on improving YOLOv5s algorithm for fabric defect detection[J]. International Journal of Clothing Science and Technology, 2023, 35(1): 88-106. DOI: 10.1108/IJCST-11-2021-0165

图(6)  /  表(3)
计量
  • 文章访问数:  27
  • HTML全文浏览量:  8
  • PDF下载量:  8
  • 被引次数: 0
出版历程
  • 收稿日期:  2024-09-05
  • 修回日期:  2024-10-13
  • 网络出版日期:  2024-11-11
  • 刊出日期:  2025-01-14

目录

/

返回文章
返回