Rice panicle tracking and length extraction based on optical flow pretreatment and StrongSORT
-
摘要:
为改进传统人工水稻产量检测方法存在接触损伤、主观低效和重复性差等问题,该研究提出了一种基于光流法预处理和StrongSORT的水稻稻穗追踪计数及穗长提取方法。首先,设计试验获取水稻旋转视频数据集,其次,利用Gunnar Farneback光流算法对视频进行预处理以减小遮挡影响,利用卷积模块注意力机制改进YOLOv8-seg网络并对稻穗进行目标检测与分割;最后,基于StrongSORT算法实现稻穗多目标追踪计数,建立运动先验模型增加稻穗目标追踪的匹配次数,改善ID (identity document) 跳变问题,同时通过Zhang-Suen骨架提取算法获取稻穗长度。结果表明,在目标检测上,改进的YOLOv8-seg模型平均精度均值为81.1%,相较于原始YOLOv8-seg模型提高了8.7个百分点;经过光流法预处理后的模型平均精度均值为95.0%,与未经过光流法预处理的模型相比提高了13.9个百分点;在稻穗多目标追踪上,光流法预处理+改进的YOLOv8-seg+StrongSORT模型的多目标追踪准确度为85.58%,高阶跟踪精度为64.06%,与YOLOv8-seg+StrongSORT相比,分别提升了11.83和9.53个百分点,ID跳变由891降低至275,降低了69.2%;在计数上,光流法预处理+改进的YOLOv8-seg+StrongSORT模型计数结果与真实值相比,回归性分析模型的决定系数R2为0.969 6,平均绝对百分比误差为2.15%,均方根误差为1.87;在穗长提取上,光流法预处理+改进的YOLOv8-seg+StrongSORT模型提取结果与真实值相比,回归性分析模型的决定系数R2为0.940 8,平均绝对百分比误差为4.07%,均方根误差为0.47。本研究可以降低各个重叠稻穗间的干扰,提高检测准确度和多目标追踪精度,减少了大部分ID跳变问题,为稻穗追踪计数和长度测量提供了一种新的技术途径。
-
关键词:
- 水稻 /
- 目标追踪计数 /
- 光流法 /
- StrongSORT /
- 稻穗长度
Abstract:The panicle number and length are two of the most crucial indicators of rice yield. Accurate acquisition of the panicle traits is of great significance to rice breeding and genetic research. However, the traditional measurements of panicle traits cannot fully meet the large-scale production in recent years, due to the contact damage, subjective inefficiency, and low repeatability. Therefore, it is very urgent to develop the observation and identification for the accurate and efficient measurement of rice panicle traits. In this study, the rice panicle tracking and traits extraction were proposed using optical flow preprocessing and the StrongSORT algorithm. Initially, a series of experiments was conducted to capture the 200 rotating rice videos. The dataset was divided into the training and testing sets in a ratio of 8:2. Subsequently, the Gunnar Farneback optical flow algorithm was employed to preprocess the videos in order to reduce the occlusion. The Convolutional Block Attention Module (CBAM) attention mechanism was then integrated into the YOLOv8-seg network in order to enhance the target detection and segmentation of rice panicles. Finally, the StrongSORT algorithm was utilized to realize the multi-target tracking and the counting of rice panicles. The Zhang-Suen skeleton extraction was applied to determine the length of the rice panicle with the largest panicle after detection. Moreover, a motion prior model was constructed with the movement trajectories and velocities of the potted rice. The position of rice panicles was predicted in the next frame. The ID switches were reduced to prevent the panicle tracking failures and duplicate counting caused by occlusion. The results demonstrated that high accuracy of the tracking was achieved to detect the rice panicle. The mean average precision of the improved YOLOv8-seg model reached 81.1%, with an increase of 8.7 percentage points, compared with the original YOLOv8-seg model. Furthermore, the mAP of the YOLOv8-seg model was improved to 95.0% after optical flow preprocessing, indicating a substantial enhancement of 13.9 percentage points over the unprocessed model. In rice multi-target tracking, the combination of optical flow preprocessing, the improved YOLOv8-seg, and StrongSORT was achieved in a multi-target tracking accuracy of 85.58% and a high-order tracking accuracy of 64.06%, which were improved by 11.83 and 9.53 percentage points, respectively, compared with the combination without optical flow preprocessing. The number of ID switches was significantly reduced from 891 to 275, with a decrease of 69.2%. In terms of counting accuracy, the combination was achieved in a coefficient of determination (R2) of 0.9696, a mean absolute percentage error of 2.15%, and a root-mean-square error of 1.87, compared with the actual values. In panicle length extraction, the R² value was 0.940 8, the MAPE was 4.07%, and the RMSE was 0.47. The combination of the optical flow preprocessing, improved YOLOv8-seg, and StrongSORT effectively reduced the interference among overlapping panicles and the ID switch. The accuracy and multi-target tracking were enhanced after detection at the same time. The finding can also provide the technical pathway for the rice panicles and length measurement in rice breeding.
-
Keywords:
- rice /
- target tracking and counting /
- optical flow method /
- StrongSORT /
- rice panicle length
-
0. 引 言
中国是水稻最大的生产和消费国,培育高产、优质、抗逆水稻新品种对维护中国粮食安全具有重要意义[1-2]。盆栽种植方式方便进行环境调控,精准表型获取和遗传机制解析,为优良品种培育、科学种植提供关键数据与理论支撑[3]。水稻产量解析是进行水稻遗传育种研究的必要途径,水稻产量由单位面积有效穗数、总粒数、结实率、千粒质量决定。其中穗数是水稻产量的构成因子,稻穗长度也是水稻产量的一个重要因素,它直接关系到水稻的穗粒数、籽粒大小和整体的产量表现。因此,准确获取水稻穗数和稻穗长度对水稻产量解析研究具有重要意义[4-5]。
目前,水稻穗数统计传统方法主要依靠人工检测,由于水稻植株间形态的相似性和调研人员的主观性,存在接触损伤、重复性差、测量效率低、人工成本高的瓶颈问题[6]。随着计算机视觉技术的快速发展,张远琴等[7]提出一种基于改进Faster R-CNN的水稻稻穗检测方法;王宏乐等[8]开发了一种基于YOLOv7的无人机影像稻穗计数方法。然而传统的二维图像目标检测方法很难克服稻穗遮挡的问题,因此亟需开发一种新的原位稻穗视觉观测和识别方法,实现水稻穗数、穗长的精准、高效测量[9-10]。
目前基于深度学习的多目标追踪技术已成为当前研究的热点之一,农业作物追踪计数、产量统计方法也得到了进一步的提升[11]。黄成龙等[12]基于VFNet,加入了融合多尺度训练和动态卷积进行优化,完成患病棉花叶片检测,并通过Deep sort算法融合撞线匹配机制完成患病棉花叶片的追踪。HE等[13]利用YOLOv3对水果进行检测,通过加入级联特征匹配将水果检测结果和轨迹进行匹配完成对水果的追踪计数。HAO等[14]基于CenterNet对棉花幼苗进行anchor-free检测,并将棉苗的位置和识别信息融入DeepSORT算法,完成了棉苗数量的追踪计算。张合涛 [15]基于YOLOv5s和StrongSORT追踪定位算法实现了基于图像序列的玉米幼苗植株识别、追踪定位;DU等[16]利用StrongSORT算法与YOLO、Faster R-CNN等检测算法相结合,对农田中的多种作物进行目标检测与轨迹跟踪,准确地追踪到单株作物或一群作物的生长进展。上述多目标追踪方法,可以为水稻稻穗多目标检测和追踪计数提供一种新思路,但其作物目标场景结构简单,并不能直接适用于水稻植株等存在遮挡情况的复杂对象及场景。毕昆等[17]通过寻找主轴方向角和旋转计算外接矩形长度的方法计算小麦穗长。宋鹏等[18]提出了一种基于多相机的玉米果穗考种参数提取方法,通过4副图像的处理结果,综合计算玉米穗长。杜建军等[19]提出一种基于全景图像的玉米果穗流水线考种方法和系统,通过拼接全景图像得到玉米果穗长度。周金辉等[20]基于机器视觉技术获取果穗三维表型性状参数,从而得到玉米果穗长度。上述方法均获取了高精度果穗长度等性状,但其实际运用过程中对设备依赖性较高,时间和人力消耗较大,无法直接适用于弯曲复杂形态的水稻稻穗长度测量。
为实现水稻稻穗精准计数和穗长自动化测量,本研究提出一种基于光流法预处理和StrongSORT的原位稻穗追踪测量方法,以盆栽水稻为对象,利用手机采集多视角水稻旋转视频;采用光流法预处理解决遮挡和ID (identity document)跳变问题,将改进的YOLOv8-seg实例检测与StrongSORT多目标追踪算法相结合,实现对旋转水稻视频的稻穗高精度计数;同时通过骨架提取算法自动化获取稻穗长度。以期为水稻稻穗原位表型信息获取提供一种新的技术途径,也为水稻育种和遗传机制解析提供一定的科技支撑。
1. 材料和图像采集
1.1 技术路线
本研究提出了一种基于光流法预处理和StrongSORT的水稻稻穗追踪计数及穗长提取方法,研究技术路线如图1所示,分为稻穗计数和穗长提取两个模块。首先设计试验获取水稻旋转视频数据集,对数据集进行图像校正等预处理后,使用Gunnar Farneback光流算法得到视频光流场并逐帧分解,得到稻穗的运动速度;在计数模块中,通过改进的YOLOv8-seg进行目标检测与分割,将StrongSORT算法与运动速度结合建立运动先验模型,降低重复计数等误差问题概率,得到稻穗精准计数结果;穗长提取模块中,在改进的YOLOv8-seg分割掩膜图像中筛选法向速度最大、切向速度为0的稻穗,使其真实长度得以展示,然后通过Zhang-Suen骨架提取算法获取稻穗长度。
1.2 试验材料
本试验地点位于湖北省武汉市洪山区华中农业大学,试验材料来源于华中农业大学作物遗传改良全国重点实验室。水稻品种选取丰两优(FLY)、两优(LYL)、荃优(QYB)、黄华占(HHZ)共4个品种,每个品种各50盆,总计200盆水稻。在水稻稻种植期间每天浇水2次,通过大棚拉网和打药防治稻飞虱、纹枯病和鸟雀危害。本次试验的视频拍摄时期为水稻成熟期。
1.3 水稻旋转视频数据采集
本研究采用旋转视频拍摄方式,能够获得多角度、全方位的水稻图像序列。如图2所示,将水稻盆栽置于旋转平台中心位置,使用三角支架固定视频录制设备;在拍摄过程中,保证水稻穗部位于录制视野中心范围内;其中,视频录制使用小米Redmi K50后置摄像头,视频分辨率为1 080 p,视频帧率为60帧/s(frames per second, FPS),旋转平台以10.58°/s的速度旋转,每株录制时间为34 s;设备与每株盆栽的录制距离相同,为避免背景干扰选,选用红色漫反射背景板。
1.4 数据集制作
所得视频单帧图像大小分别为1 920$ \times $1 080像素,帧率为60帧/s,保存为MP4格式;试验拍摄水稻共200盆,得到视频数据共200个;将旋转视频按8:2比例划分为训练集与测试集。数据集采用开源软件Darklabel进行标注,后用labelimg进行调整。系统总体代码基于pytorch框架YOLOv8模型,python选取3.7版本,在Windows 10系统上执行,使用NVIDIA GeForce RTX 2080 ti进行模型训练及测试。
2. 水稻稻穗追踪计数及穗长提取
2.1 基于Gunnar Farneback光流法的稠密光流处理
光流场是计算机视觉中的一个核心概念,它描述了图像中的像素在连续帧之间的运动[21-22]。光流场可以看作是图像中所有像素亮度随时间变化的运动场 [23-24]。光流的基本假设源自于图像亮度一致性假设,即图像中的某一物体表面的亮度在连续的时间帧中保持不变[25]。根据图像亮度一致性假设,可以推导出光流的基本方程:
$$ I\left(x,y,t\right)=I\left(x+\Delta x,y+\Delta y,t+\Delta t\right) $$ (1) 式中$ I\left(x,y,t\right) $ 是图像在时间t时刻、位置 $ \left(x,y\right) $ 的像素亮度值,$ \Delta x $ 和 $ \Delta y $ 是物体在图像中的运动,$ \Delta t $ 是时间间隔。此方程描述了图像亮度在两帧之间的变化。假设某一时刻物体的亮度在连续帧之间没有变化,即将点的亮度视为一致时,通过对时间和空间的局部导数进行泰勒展开,可以得到的基本约束方程
$$ {I}_{x}u+{I}_{y}v+{I}_{t}=0 \text{;} $$ (2) 式中$ {I}_{x} $为图像亮度函数对$ x $方向的空间梯度;$ {I}_{y} $为图像亮度函数对$ y $方向的空间梯度;$ {I}_{t} $为图像亮度函数在时间方向的变化;$ u $、$ v $为光流场在$ x $和$ y $方向的速度分量,mm/s。
此方程表示了在每一个像素点上光流的分量$ u $和$ v $与图像梯度和时间变化的关系。
Gunnar Farneback 光流法[26]是一种基于多项式扩展的稠密光流估计方法,它通过局部图像区域的多项式逼近来估算光流,从而估计像素的位移。Gunnar Farneback光流法的核心是通过最小化误差和优化光流场来实现对图像运动的精确估计[27],其主要优势在于计算效率和精度之间的平衡,使得它能够在相对复杂的图像序列中计算光流。因此,本文采用Gunnar Farneback光流法对稻穗旋转视频进行处理。
已知本试验数据集为水稻盆栽逆时针旋转视频,在视频图像的前后方均有稻穗进行旋转运动。在此情况下,如果直接对稻穗进行追踪,图像后方的稻穗会出现重复检测的情况,影响计数效果。因此,需要通过光流法过滤出画面前方的稻穗运动情况,再进行追踪计数。由于视频帧中每株稻穗运动的速度不一样,以真实世界平面为 $ xoy $ 平面,把Gunnar Farneback 光流法得到的稻穗运动速度按 $ x,y $ 轴分解,能够得到稻穗图像中每个点的两个速度向量。只保留向右运动的向量,这样就去除了在图像后方重叠部分的运动稻穗;并且,对 $ y $ 轴速度向量进行过滤,能够去除稠密光流中的噪声点,最后得到掩膜图像,具体过程如图3所示。
2.2 基于改进YOLOv8-seg的稻穗目标检测及分割
YOLOv8作为一种基于深度学习的目标检测算法,具有较高的检测速度和准确性。YOLOv8-seg继承了YOLO的物体检测能力,并且增强了图像分割功能,不仅具有高效的目标检测能力,还能将目标的轮廓精确地分割出来[28]。同时,YOLOv8-seg使用改进版的CSPDarknet作为主干网络,Neck部分采用了自适应特征聚合(adaptive feature aggregation, AFA)模块,可以有效地融合来自不同尺度的特征,提升目标检测和分割精度[29]。除此之外,YOLOv8-seg引入了针对分割任务的新的分割头,这个改进的头部不仅能生成物体的边界框,还能产生分割掩膜,实现更高质量的语义分割与实例分割[30]。
因此,本文利用YOLOv8-seg模型结合深度学习技术进行稻穗目标检测及稻穗分割,为后续的任务奠定基础。由于稻穗间存在遮挡,目标检测背景较为复杂,针对以上问题,本研究在YOLOv8-seg网络中引入卷积模块注意力机制(convolutional block attention module,CBAM),改进后的网络结构图如图4所示。
图 4 改进的YOLOv8-seg 网络框架注:Conv为卷积操作,C2f为局部特征融合,Concat为跨层次特征融合,SPPF为改进的空间金字塔池化结构,Upsample为上采样,Segment为实例分割,BottleNeck为残差结构,Split为分割模块,MaxPool为最大池化处理,CBAM为卷积模块注意力机制,N为残差结构数量。Figure 4. Improved YOLOv8-seg network frameworkNote: Conv represents the convolutional operation, C2f represents local feature fusion, Concat represents cross-level feature fusion, SPPF represents an improved spatial pyramid pool structure, Upsample represents upsampling, Segment represents instance segmentation, BottleNeck represents residual structure, Split represents segmentation module, MaxPool represents the maximum pooling process, CBAM represents the convolutional block attention module, N represents the numble of BottleNeck.CBAM模块结合了通道注意力机制(channel attention module,CAM)和空间注意力机制(spatial attention module,SAM)来加强网络对目标区域的注意力。其中,通道注意力使网络可以自适应地加权每个通道的特征,从而突出对目标检测有贡献的通道信息,抑制无关的背景信息;空间注意力通过对特征图的空间维度进行加权,提升目标区域的表达能力[31]。
本文在主干网络末端的SPPF模块前端插入 CBAM注意力模块,通过对通道和空间两个维度的加权处理,有效增强复杂背景下神经网络对稻穗目标的感知能力,能够更准确地定位稻穗目标,减少背景干扰,保持较高的检测精度并减少目标丢失或误识别,为后续基于光流法的穗长提取提供了可靠的动态信息。
2.3 基于StrongSORT和运动先验模型的稻穗追踪计数
2.3.1 StrongSORT算法
StrongSORT 是一种在 SORT[32]的基础上引入外观特征建模和轨迹管理优化的多目标跟踪算法,其核心原理是将运动模型与外观特征结合,提升复杂场景下的跟踪鲁棒性和准确性。在基础框架中,StrongSORT 继承了SORT的运动预测机制,利用卡尔曼滤波器对目标的运动状态进行建模和更新。然而,由于 SORT 仅依赖运动信息进行关联,对于目标遮挡、重叠或轨迹漂移等问题表现出明显不足,尤其在多目标密集场景下容易出现 ID 切换或轨迹丢失[33]。
为解决上述问题,StrongSORT采用了BoT作为外观特征提取器。与DeepSORT[34]中使用的简单全卷积神经网络模型不同,BoT使用ResNeSt50作为骨干模型,并在DukeMTMCreID数据集上进行了预训练。这种特征提取器能够更有效地区分不同个体之间的特征,因为它利用了更复杂的网络结构和大量的预训练数据[35]。此外,StrongSORT采用了EMA(efficient multi-scale attention)特征库更新特征,通过对历史特征进行指数加权平均,从而对目标特征进行平滑更新和存储,并减少噪音。其计算式为
$$ f_{\mathit{\mathrm{EMA}}\mathrm{ }}\left(i\right)=\alpha f_i\mathrm{ }+(1-\alpha)f_{\mathrm{EMA}\mathrm{ }}\mathrm{ }(i-1) $$ (3) 式中$ \alpha $为权重,$ f_i $为第i 帧的原始坐标点,$ f_{\mathrm{EMA}\mathrm{ }}\left(i\right) $为第i帧检测物体的EMA特征。
2.3.2 运动先验模型改进ID跳变问题
ID结果直接反映稻穗的追踪计数结果。本数据集水稻围绕旋转中心进行匀速圆周运动,考虑到数据特殊性所产生的遮挡误差,在StrongSORT模型追踪结果的基础上研究建立了运动先验模型。由于StrongSORT模型会记录保存稻穗目标的位置,在追踪完成后并不会直接输出结果,而是利用运动先验模型预测稻穗下一帧的位置,将两个预测结果进行对比,如果后续多个状态均与StrongSORT模型预测结果匹配,则判定稻穗目标追踪准确无误。此模型保证了追踪的连续性,避免了因为遮挡导致追踪失败、产生重复计数的情况,防止了ID跳变。
运动先验模型通过特殊运动轨迹和运动速度,对稻穗进行位置预测。首先进行坐标轴建立,以水平面为xoy平面,z轴垂直于xoy面,水稻中心围绕xoy旋转后投影到像平面。由于像平面并不与z轴平行,水稻在像平面的轨迹类似于弧形,并非变速直线运动。但在实际数据集运行中发现,在1 280$ \times $720的分辨率下,同一稻穗目标由最高点运动到最低点的过程中,其所相差的像素距离$ \le $5,因此可以将稻穗在像平面的运动近似于变速直线运动。由于数据集旋转的角速度和半径已知,根据式(4)可以得出稻穗运动的近似水平速度。此时,稻穗运动的轨迹与速度已知,根据速度与时间的关系可以预测出稻穗的具体位置。
$$ V=\omega \cdot r $$ (4) 式中$ V $为稻穗运动速度,mm/s;$ \omega $为旋转角速度,rad/s;$ r $为旋转半径,mm。
2.4 稻穗骨架提取及穗长计算
稻穗骨架提取及穗长计算方法如图5所示。本研究首先对识别的稻穗进行运动特性分析;然后提取法向速度最大、切向速度为0的稻穗目标;最后利用稻穗骨架提取算法和穗长计算方法,实现穗长的提取。
2.4.1 稻穗运动特性分析
首先通过YOLOv8-seg对视频帧中的稻穗进行目标分割,然后结合光流法预处理分析稻穗的运动特征。光流法计算将稻穗上的点的速度分解为法向速度和切向速度,法向速度为点沿着垂直相机平面方向运动的速度,该速度与稻穗的形变有关,法向速度较大表明该点在垂直于相机平面的方向上有明显的运动;切向速度为点沿着稻穗表面平行于相机平面方向运动的速度,该速度与稻穗的旋转或倾斜有关,切向速度为零时,表示稻穗处于完全平行于相机平面的状态。当某一稻穗每个像素的法向速度为最大值,切向速度为0时,代表形变最小、平行于相机平面。在此位置下,稻穗的像素长度最接近真实长度。
2.4.2 稻穗骨架提取算法
骨架提取是图像处理中用来简化物体形状的一种技术,广泛应用于形状分析、物体识别等领域[36]。由于稻穗通常呈现弯曲形态,直接使用最小外接矩形计算穗长可能导致显著误差。矩形拟合法更适用于线性或接近线性的形状,而稻穗的复杂几何特征使其难以用矩形精确描述。Zhang-Suen 骨架提取算法通过迭代的方式,在保持图像的拓扑结构不变的情况下,逐步削减物体的外轮廓,直到最终得到骨架。该算法分为两个阶段(前后两轮迭代),每轮迭代通过对像素点的邻域进行分析来决定该像素是否可以被删除,具有较高的完整性和准确性[37]。因此本文采用Zhang-Suen 骨架提取算法,每次迭代通过两个阶段对稻穗像素进行删除,直到两轮迭代均未发生任何像素去除时,算法停止,得到目标稻穗骨架像素。
2.4.3 穗长计算
基于提取的稻穗骨架像素,首先根据邻域特性保留首位像素点,然后进行间隔采样,并对采样后的像素点进行欧式距离累加求和得到稻穗的像素长度,最后基于相机空间标定信息,将稻穗像素长度转化为实际物理长度。
2.5 评价指标
2.5.1 目标检测评价指标
采用精确率P、召回率R、平均精度均值mAP@50、F1值、帧率FPS对训练的模型进行评估。
2.5.2 目标追踪评价指标
采用以下4个评价指标对多目标追踪效果评价;
1)ID跳变(ID switch)
在追踪过程中,每次一个目标的身份被错误分配给其他目标,都会增加一个 ID跳变。ID跳变越小,对目标身份的保持能力越强,追踪稳定性越好。
2) 多目标跟踪准确度(multi-object tracking accuracy,MOTA)
MOTA 是多目标追踪精度的综合评估指标,综合考虑了目标检测和目标追踪的准确性,包含了漏检、误检和ID跳变等参数,衡量了多目标追踪识别和保持一致性的能力,并且MOTA与目标追踪位置精确度无关,其数值越接近1说明追踪性能越好。
$$ \mathrm{MOTA}=1-\frac{\sum_k (C{_{FNk}}+C{_{FPk}}+C_{IDSWk})}{\sum_k C_{{GTk}}} $$ (5) 式中k为帧索引号;$ C{_{GTk}} $为第k帧时标注的个数;$ C{_{FNk}} $为第k帧时有目标但是没有追踪到目标的数量;$ C{_{FPk}} $为第k帧时错误追踪目标的数量,CIDSWk为第k帧时ID跳变数量。
3)更高维追踪精度(higher order tracking accuracy,HOTA)
HOTA比MOTA 更细致地衡量了追踪算法的性能,提供了更精确的追踪质量评估,不仅考虑目标的跟踪准确性,还考虑了目标之间身份保持的一致性。HOTA数值越接近1说明追踪性能越好。
$$ {R}_{HOTA}=\sqrt{\frac{{\sum }_{c\in \left\{{R}_{TP}\right\}}{R}_{A\left(c\right)}}{\left|{R}_{TP}\right|+\left|{R}_{FN}\right|+\left|{R}_{FP}\right|}} $$ (6) $$ {R}_{A\left(c\right)}=\frac{\left|{R}_{TPA\left(c\right)}\right|}{\left|{R}_{TPA\left(c\right)}\right|+\left|{R}_{FNA\left(c\right)}\right|+\left|{R}_{FPA\left(c\right)}\right|} $$ (7) 式中c为某一稻穗追踪ID序号;$ {R}_{TP} $为追踪过程中正确匹配集合;$ {R}_{FN} $为跟踪过程中漏检的集合;$ {R}_{FP} $为跟踪过程中错检的集合;$ {R}_{TPA\left(c\right)} $为给定的$ {R}_{TP} $集合中,预测的ID和真实值ID都为c的情况;$ {R}_{FNA\left(c\right)} $为给定的$ {R}_{TP} $集合中,真实值的ID为c但是预测的ID不为c,以及$ {R}_{FN} $集合中真实值的ID为c的情况;$ {R}_{FPA\left(c\right)} $为给定的$ {R}_{TP} $集合中,预测的ID为c但是真实值的ID不为c,以及$ {R}_{FP} $集合中,预测的ID为c的情况。
2.5.3 误差分析评价指标
穗长评价采用误差分析评价指标,对穗长结果误差分析选取决定系数R2、平均绝对百分比误差(mean absolute percentage error,MAPE)、均方根误差(root mean square error,RMSE)进行分析。
3. 结果与分析
3.1 光流处理结果
研究采用Gunnar Farneback算法,对采集的水稻视频进行预处理,得到光流的幅度分量图和角度分量图,效果如图6所示。通过幅度分量图可以观察到不同方向运动的水稻在图像上区别明显,能够将整株水稻的稻穗分别划分为一个个的水稻实体。角度分量图相较于幅度分量图来说,并不利于单个稻穗的精确位置分割,但是可以将角度图像分解为x和y方向的幅度,去除像平面后方的稻穗。结合幅度分量图和角度分量图对原图像进行掩码,得到最终的过滤结果,结果显示在像平面后方的稻穗被精确滤除,可有效解决稻穗重叠遮挡问题。
3.2 改进的YOLOv8-seg目标检测结果
采用不同品种40盆水稻测试集样本,对改进的YOLOv8-seg模型和光流法预处理效果进行评价,得到稻穗目标检测结果(表1)。其中,改进的YOLOv8-seg模型与原始YOLOv8-seg模型相比,检测精确率由79.1%提升至82.3%;mAP@50由72.4%提升至81.1%,提高了8.7个百分点;检测速率由35.6 帧/s提升到 41.8 帧/s。结果表明,改进的YOLOv8-seg模型减少了误判情况,降低了漏检可能性,模型整体检测精度提升,同时加快了检测效率。
表 1 稻穗目标检测结果Table 1. Rice panicle target detection results模型种类
Model typesP/% R/% mAP@50/% F1 值
F1score/%FPS/
(帧·s−1)YOLOv8-seg 79.1 72.5 72.4 75.6 35.6 改进的YOLOv8-seg 82.3 80.1 81.1 83.2 41.8 光流法预处理+YOLOv8-seg 95.0 92.2 95.0 93.6 63.5 光流法预处理+改进的YOLOv8-seg 95.2 92.8 95.0 93.7 61.7 注:P为检测精确率,R为检测召回率,mAP@50为平均精度均值, FPS为每秒检测帧数。下同。 Note: P represents detection accuracy, R represents detection recall, mAP@50 represents mean of average accuracy, FPS represents frames detected per second. The same below. 光流法预处理后,改进的YOLOv8-seg模型的检测精确率和召回率分别提升至95.2%和92.8%, 相比于只改进YOLOv8-seg的模型,mAP@50提升了13.9个百分点。结果表明,光流法预处理提高了识别的准确性,优化了模型在不同检测阈值下的性能,提高了处理效率。
综上所述,通过增加CBAM注意力机制对YOLOv8-seg目标检测网络进行改进,能够提升网络的目标检测准确度,同时还提高检测速率,且光流法预处理可以进一步提高检测可靠性。
3.3 稻穗追踪及计数结果
3.3.1 追踪结果
光流法预处理的稻穗多目标追踪对比效果如图7所示。首先,未进行光流法预处理的视频,直接利用改进的YOLOv8s-seg和StrongSORT模型进行追踪分析(图7a):在视频的第300、450和600帧的稻穗目标检测ID值分别为200、230和299,均远远大于真实值15,说明存在明显的ID跳变情况,并不能反映真实稻穗数量。然后,将原视频进行光流法预处理,剔除像平面后方的旋转稻穗,得到过滤后的视频数据,利用改进的YOLOv8s-seg和StrongSORT模型进行追踪分析(图7b):在视频的第300、450和600帧,其目标检测ID值均为15,与真实值相等,说明光流法处理能够明显减少ID跳变情况,大大提高了多目标追踪的准确性。
研究采用相同测试集对不同追踪算法进行评价,分别得到YOLOv8+ByteTrack模型(模型1)、YOLOv8-seg+DeepSORT模型(模型2)、YOLOv8-seg+StrongSORT模型(模型3)和光流法预处理+改进的YOLOv8-seg+StrongSORT模型(模型4)的多目标追踪结果(表2)。模型1和模型2的ID跳变分别为1 815和986,而模型3的ID跳变为891,且MOTA和HOTA均高于模型1和模型2,表明本文采用的StrongSORT模型在稻穗多目标追踪上具有明显优势。此外,模型4相较于模型3,其ID跳变由891降低至275,降低了69.2%;MOTA提升了11.83个百分点;HOTA提升了9.53个百分点,表明通过光流法过滤遮挡稻穗干扰,有效减少了IDswitch的问题,大大提升了追踪精度。
表 2 多目标追踪算法对比Table 2. Comparison of multi-target tracking algorithms模型种类
Model typesID switch MOTA/% HOTA/% P/% R/% YOLOv8+ByteTrack(模型1) 1 815 59.67 23.58 76.39 63.40 YOLOv8-seg+DeepSORT(模型2) 986 70.35 49.89 90.90 76.64 YOLOv8-seg+StrongSORT(模型3) 891 73.75 54.53 92.63 79.17 光流法预处理+改进的YOLOv8-seg+StrongSORT(模型4) 275 85.58 64.06 98.51 95.44 注:ID switch为ID跳变数量,MOTA为多目标追踪准确度,HOTA为更高维度追踪精度。
Note: ID switch represents the number of ID switch, MOTA represents the multi-target tracking accuracy, HOTA represents the tracking accuracy in higher dimensions.3.3.2 计数结果与误差分析
对测试集视频稻穗数量进行人工统计,并与本文模型计数结果进行回归性分析(图8)。结果表明,模型4的决定系数R2为0.969 6,平均绝对百分比误差(MAPE)为2.15%,均方根误差(RMSE)为1.87。与模型3、模型2、模型1对比可知,本文提出的光流法预处理+改进的YOLOv8-seg+StrongSORT模型在稻穗计数上展现出了较高的测量准确度,且光流法预处理能够明显提高模型的计数精度。
3.4 穗长提取结果分析
3.4.1 穗长提取结果
为验证穗长测量精度,系统测量采用光流法预处理+改进的YOLOv8-seg+StrongSORT模型结合Zhang-Suen骨架提取算法提取水稻穗长,以人工测量的实际值为因变量、算法预测值为自变量进行线性回归分析(图9)。结果表明,线性回归模型的决定系数R2为0.940 8, MAPE为4.07%, RMSE为0.47。表明本方法在原位稻穗的长度测量中具有较高的精度和可靠性。
3.4.2 误差分析
1)误差来源分析
尽管骨架提取方法有效降低了测量误差,但仍存在一定的偏差,其原因为稻穗表面纹理复杂,并且稻穗内部可能存在局部遮挡或噪声干扰,从而导致骨架线在局部区域(尤其是弯曲度较大的部位)的提取偏差。此外,骨架提取方法通常假设稻穗中心线平滑连续,但在某些稻穗形态复杂、分叉较多的情况下,骨架拟合的平滑性可能会忽略局部的弯曲细节。
2)不同形态稻穗的误差分析
对于弯曲度较大的稻穗,骨架提取方法能够更好地捕捉稻穗的弯曲特性。然而,当稻穗形态过于复杂(如出现分叉或剧烈弯曲)时,骨架提取结果可能与真值存在局部偏差。对误差的分布特性进行统计分析发现:约68%的稻穗测量误差在±5%范围内;其余测量误差主要集中在弯曲形态复杂的样本中,误差范围为5%~10%;极少数样本误差超过10%。尽管存在误差,本方法在原位稻穗的长度测量中具有显著优势,可应用于稻穗表型的原位连续监测。
4. 结 论
由于传统人工水稻产量检测方法中的接触损伤、主观低效和重复性差等问题,本研究提出了基于光流法预处理和StrongSORT的水稻稻穗追踪计数及穗长提取方法,主要结论如下:
1)使用光流法对数据集进行预处理、使用卷积模块注意力机制(convolutional block attention module,CBAM)改进YOLOv8-seg网络。结果表明,改进的YOLOv8-seg模型平均精度均值(mean average precision, mAP@50)为81.1%,相比原始YOLOv8-seg模型提高了8.7个百分点;经过光流法预处理后的模型mAP@50为95.0%,相较于未进行光流法预处理的模型提高了13.9个百分点,有效减少了重叠稻穗间的干扰,提升了稻穗检测精度。
2)将光流算法与StrongSORT追踪模型结合,通过运动先验模型改进网络,有效解决了稻穗追踪计数过程中ID跳变等问题。优化后稻穗多目标追踪的准确度提升,其中MOTA(multi-object tracking accuracy)为85.58%,提升了11.83个百分点,HOTA(higher order tracking accuracy)为64.06%,提升了9.53个百分点,ID跳变由891降低至275,降低了69.2%。
3)通过光流法运动特性分析,可筛选出平行于相机平面的最佳稻穗位置;将光流法预处理的StrongSORT模型与Zhang-Suen骨架提取算法相结合,实现穗长自动化无损测量。将系统测量值与人工测量值进行回归分析,得到线性回归模型的决定系数R2为0.940 8,平均绝对百分比误差MAPE为4.07%,表明该方法在原位稻穗的长度测量中具有较高的精度和可靠性。
-
图 4 改进的YOLOv8-seg 网络框架
注:Conv为卷积操作,C2f为局部特征融合,Concat为跨层次特征融合,SPPF为改进的空间金字塔池化结构,Upsample为上采样,Segment为实例分割,BottleNeck为残差结构,Split为分割模块,MaxPool为最大池化处理,CBAM为卷积模块注意力机制,N为残差结构数量。
Figure 4. Improved YOLOv8-seg network framework
Note: Conv represents the convolutional operation, C2f represents local feature fusion, Concat represents cross-level feature fusion, SPPF represents an improved spatial pyramid pool structure, Upsample represents upsampling, Segment represents instance segmentation, BottleNeck represents residual structure, Split represents segmentation module, MaxPool represents the maximum pooling process, CBAM represents the convolutional block attention module, N represents the numble of BottleNeck.
表 1 稻穗目标检测结果
Table 1 Rice panicle target detection results
模型种类
Model typesP/% R/% mAP@50/% F1 值
F1score/%FPS/
(帧·s−1)YOLOv8-seg 79.1 72.5 72.4 75.6 35.6 改进的YOLOv8-seg 82.3 80.1 81.1 83.2 41.8 光流法预处理+YOLOv8-seg 95.0 92.2 95.0 93.6 63.5 光流法预处理+改进的YOLOv8-seg 95.2 92.8 95.0 93.7 61.7 注:P为检测精确率,R为检测召回率,mAP@50为平均精度均值, FPS为每秒检测帧数。下同。 Note: P represents detection accuracy, R represents detection recall, mAP@50 represents mean of average accuracy, FPS represents frames detected per second. The same below. 表 2 多目标追踪算法对比
Table 2 Comparison of multi-target tracking algorithms
模型种类
Model typesID switch MOTA/% HOTA/% P/% R/% YOLOv8+ByteTrack(模型1) 1 815 59.67 23.58 76.39 63.40 YOLOv8-seg+DeepSORT(模型2) 986 70.35 49.89 90.90 76.64 YOLOv8-seg+StrongSORT(模型3) 891 73.75 54.53 92.63 79.17 光流法预处理+改进的YOLOv8-seg+StrongSORT(模型4) 275 85.58 64.06 98.51 95.44 注:ID switch为ID跳变数量,MOTA为多目标追踪准确度,HOTA为更高维度追踪精度。
Note: ID switch represents the number of ID switch, MOTA represents the multi-target tracking accuracy, HOTA represents the tracking accuracy in higher dimensions. -
[1] 郭韬,余泓,邱杰,等. 中国水稻遗传学研究进展与分子设计育种[J]. 中国科学:生命科学,2019,49(10):1185-1212. GUO Tao, YU Hong, QIU Jie, et al. Advances in rice genetics and breeding by molecular design in China[J]. Science in China: Life Science, 2019, 49(10): 1185-1212. (in Chinese with English abstract)
[2] 吴延寿,姚晓云,曹国军,等. 优质再生稻产量形成和稻米品质比较分析[J]. 杂交水稻,2019,34(5):57-63. WU Yanshou, YAO Xiaoyun, CAO Guojun, et al. Analysis of yield formation and comparison of grain quality of fine quality ratoon rice[J]. Hybrid Rice, 2019, 34(5): 57-63. (in Chinese with English abstract)
[3] 罗瑾. 水稻种植与施肥技术要点[J]. 世界热带农业信息,2024(6):20-22. LUO Jin. Key techniques of rice planting and fertilization[J]. Information of World Tropical Agriculture, 2024(6): 20-22. (in Chinese with English abstract)
[4] 唐颖. 水稻高产种植技术与病虫害防治措施分析[J]. 种子科技,2019,43(1):141-143. TANG Ying. Analysis of high-yield planting techniques and pest control measures of rice[J]. Seed Science and Technology, 2019, 43(1): 141-143. (in Chinese with English abstract)
[5] 武广海,孙良庭. 水稻高产栽培技术要点与常见病虫害防治策略[J]. 世界热带农业信息,2025(1):46-48. DOI: 10.3969/j.issn.1009-1726.2025.01.017 WU Guanghai, SUN Liangting. Key techniques of high-yield rice cultivation and control strategies of common diseases and insect pests[J]. Information of World Tropical Agriculture, 2025(1): 46-48. (in Chinese with English abstract) DOI: 10.3969/j.issn.1009-1726.2025.01.017
[6] 杨德卫,张海峰,余文权. 我国水稻种质资源创新研究与利用进展[J]. 植物遗传资源学报,2024,25(4):495-508. YANG Dewei, ZHANG Haifeng, YU Wenquan. Progress on innovative research and utilization of rice germplasm resources in China[J]. Journal of Plant Genetic Resources, 2024, 25(4): 495-508. (in Chinese with English abstract)
[7] 张远琴,肖德琴,陈焕坤,等. 基于改进Faster R-CNN的水稻稻穗检测方法[J]. 农业机械学报,2021,52(8):231-240. DOI: 10.6041/j.issn.1000-1298.2021.08.023 ZHANG Yuanqin, XIAO Deqin, CHEN Huankun, et al. Rice panicle detection method based on improved Faster R-CNN[J]. Transactions of the Chinese Society for Agricultural Machinery, 2021, 52(8): 231-240. (in Chinese with English abstract) DOI: 10.6041/j.issn.1000-1298.2021.08.023
[8] 王宏乐,叶全洲,王兴林,等. 基于YOLOv7的无人机影像稻穗计数方法研究[J]. 广东农业科学,2023,50(7):74-82. WANG HongLe, YE QuanZhou, WANG XingLin, et al. Rice panicles counting method based on YOLOv7 using unmanned aerial vehicles images[J]. Guangdong Agricultural Sciences, 2023, 50(7): 74-82. (in Chinese with English abstract)
[9] 张春磊,李颜娥,丁煜,等. 基于深度学习技术的水稻环境因素产量预测[J]. 电子技术应用,2024,50(4):81-86. ZHANG Chunlei, LI Yan'e, DING Yu, et al. Prediction of rice yield with environmental factors based on deep learning technology[J]. Environmental Factors Electronic Technology Applications, 2024, 50(4): 81-86. (in Chinese with English abstract)
[10] 孙宜田,陈刚,李青龙,等. 智慧农业的应用及发展趋势与挑战[J]. 智能化农业装备学报(中英文),2020,1(1):56-59. DOI: 10.12398/j.issn.2096-7217.2020.01.008 SUN Yitian, CHEN Gang, LI Qinglong, et al. Application and development trend of intelligent agriculture[J]. Journal of Intelligent Agricultural Equipment (Chinese and English), 2020, 1(1): 56-59. (in Chinese with English abstract) DOI: 10.12398/j.issn.2096-7217.2020.01.008
[11] 岑海燕,朱月明,孙大伟,等. 深度学习在植物表型研究中的应用现状与展望[J]. 农业工程学报,2020,36(9):1-16. DOI: 10.11975/j.issn.1002-6819.2020.09.001 CEN Haiyan, ZHU Yueming, SUN Dawei, et al. Current status and future perspective of the application of deep learning in plant phenotype research[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2020, 36(9): 1-16. (in Chinese with English abstract) DOI: 10.11975/j.issn.1002-6819.2020.09.001
[12] 黄成龙,张忠福,卢智浩,等. 基于VFNet-Improved和Deep Sort的棉花黄萎病病情分级[J]. 智能化农业装备学报(中英文),2023,4(2):12-21. DOI: 10.12398/j.issn.2096-7217.2023.02.002 HUANG Chenglong, ZHANG Zhongfu, LU Zhihao, et al. Leaf grading for cotton verticillium wilt based on VFNet-Improved and Deep Sort[J]. Journal of Intelligent Agricultural Mechanization(Chinese and English), 2023, 4(2): 12-21. (in Chinese with English abstract) DOI: 10.12398/j.issn.2096-7217.2023.02.002
[13] HE LY, WU FD, DU XQ, et al. Cascade-SORT: A robust fruit counting approach using multiple features cascade matching[J]. Computers and Electronics in Agriculture, 2022, 200: 107223. DOI: 10.1016/j.compag.2022.107223
[14] HAO Y, CHANG FL, HUANG YH, et al. Multi-object tracking using DeepSORT and modified CenterNet in cotton seedling counting[J]. Computers and Electronics in Agriculture, 2022, 202: 107339. DOI: 10.1016/j.compag.2022.107339
[15] 张合涛. 基于高通量表型平台和深度学习的小麦玉米关键表型指标解析方法研究[D]. 杨凌:西北农林科技大学,2023. ZHANG Hetao. Analysis Method of Key Phenotypic Indicators of Wheat and Maize Based on High-throughput Phenotypic Platform and Deep Learning [D]. Yangling: Northwest A&F University, 2023. (in Chinese with English abstract)
[16] DU Y H, ZHAO Z C, SONG Y, et al. StrongSORT: Make DeepSORT great again[J]. IEEE Transactions on Multimedia, 2023, 25: 8725-8737. DOI: 10.1109/TMM.2023.3240881
[17] 毕昆,姜盼,李磊,等. 基于形态学图像处理的麦穗形态特征无损测量[J]. 农业工程学报,2010,26(12):212-216. DOI: 10.3969/j.issn.1002-6819.2010.12.036 BI Kun, JIANG Pan, LI Lei, et al. Non-destructive measurement of wheat spike characteristics based on morphological image processing[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2010, 26(12): 212-216. (in Chinese with English abstract) DOI: 10.3969/j.issn.1002-6819.2010.12.036
[18] 宋鹏,张晗,罗斌,等. 基于多相机成像的玉米果穗考种参数高通量自动提取方法[J]. 农业工程学报,2018,34(14):181-187. DOI: 10.11975/j.issn.1002-6819.2018.14.023 SONG Peng, ZHANG Han, LUO Bin, et al. High throughput automatic extraction method of corn ear parameters based on multiple cameras images[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2018, 34(14): 181-187. (in Chinese with English abstract) DOI: 10.11975/j.issn.1002-6819.2018.14.023
[19] 杜建军,郭新宇,王传宇,等. 基于全景图像的玉米果穗流水线考种方法及系统[J]. 农业工程学报,2018,34(13):195-202. DOI: 10.11975/j.issn.1002-6819.2018.13.023 DU Jianjun, GUO Xinyu, WANG Chuanyu, et al. Assembly line variety test method and system for corn ears based on panoramic surface image[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2018, 34(13): 195-202. (in Chinese with English abstract) DOI: 10.11975/j.issn.1002-6819.2018.13.023
[20] 周金辉,马钦,朱德海,等. 基于机器视觉的玉米果穗产量组分性状测量方法[J]. 农业工程学报,2015,31(3):221-227. DOI: 10.3969/j.issn.1002-6819.2015.03.029 ZHOU Jinhui, MA Qin, ZHU Dehai, et al. Measurement method for yield component traits of maize based on machine vision[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2015, 31(3): 221-227. (in Chinese with English abstract) DOI: 10.3969/j.issn.1002-6819.2015.03.029
[21] HORN B K P, SCHUNCK B G. Determining optical flow[J]. Artificial Intelligence, 1981, 17(1/2/3): 185-203.
[22] BROX T, MALIK J. Large displacement optical flow: Descriptor matching in variational motion estimation[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2011, 33(3): 500-513. DOI: 10.1109/TPAMI.2010.143
[23] SUN D, ROTH S, BLACK M J. A quantitative analysis of current practices in optical flow estimation and the principles behind them[J]. International Journal of Computer Vision, 2014, 106(2): 115-137. DOI: 10.1007/s11263-013-0644-x
[24] 胡建朗,郭迟,罗亚荣. 基于图像和事件的无监督学习稠密连续光流估计[J]. 武汉大学学报 (信息科学版),2024,49(5):819-830 . HU Jianlang, GUO Chi, LUO Yarong. Unsupervised dense and continuous optical flow estimation based on image and event data[J]. Geomatics and Information Science of Wuhan University, 2024, 49(5): 819-830. (in Chinese with English abstract)
[25] SUN D, ROTH S, BLACK M J. Secrets of optical flow estimation and their principles[C]// San Francisco, USA: Proceedings of the European Conference on Computer Vision. 2010: 243-256.
[26] GUNNAR F. Polynomial Expansion for Orientation and Motion Estimation [D]. Linköping: Linköpings University, 2003.
[27] GUNNAR F. Two - Frame Motion Estimation Based on Polynomial Expansion [J]. Image Analysis, 2003(2749): 363-370.
[28] AMJAD A. Alsuwaylimi. Enhanced YOLOv8-Seg Instance Segmentation for Real-Time Submerged Debris Detection[C]// San Francisco: Proceedings of the IEEE conference on computer vision. Piscataway, USA: IEEE, 2024: 117833-117849.
[29] XIANG Y, KAI Q, XIN Y N, el al. Improved YOLOv8-Seg Network for Instance Segmentation of Healthy and Diseased Tomato Plants in the Growth Stage[J]. MDPI, Agriculture 2023, 13(8), 1308-1643
[30] 司永胜,孔德浩,王克俭,等. 基于改进YOLOv8-Seg的苹果单枝条花序疏除方法[J]. 农业工程学报,2024,40(14):100-108. DOI: 10.11975/j.issn.1002-6819.202312096 SI Yongsheng, KONG Dehao, WANG Kejian, et al. Thinning apple inflorescence at single branch level using improved YOLOv8-Seg[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2024, 40(14): 100-108. (in Chinese with English abstract) DOI: 10.11975/j.issn.1002-6819.202312096
[31] WOO S, PARK J, LEE J Y, CBAM: Convolutional Block Attention Module[C]// Munich, Germany: Computer Vision – ECCV 2018. 978.
[32] 陈锋军,朱学岩,周文静,等. 利用无人机航拍视频结合YOLOv3模型和SORT算法统计云杉数量[J]. 农业工程学报,2021,37(20):81-89. DOI: 10.11975/j.issn.1002-6819.2021.20.009 CHEN Fengjun, ZHU Xueyan, ZHOU Wenjing, el al. Quantity statistics of spruce under UAV aerial videos using YOLOv3 and SORT[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2021, 37(20): 81-89. (in Chinese with English abstract) DOI: 10.11975/j.issn.1002-6819.2021.20.009
[33] 秦庆松. 基于YOLOv5s和StrongSORT的复杂场景下的多目标跟踪算法研究[D]. 兰州:兰州理工大学,2024. QIN Qingsong. Research on Multi-Target Tracking Algorithm in Complex Scenes Based on YOLOv5s and StrongSORT [D]. Lanzhou: Lanzhou University of Technology, 2024. (in Chinese with English abstract)
[34] BANERJEE S C, KHAN K A, SHARMA R. Deep-wormtracker: Deep learning methods for accurate detection and tracking for behavioral studies in C. elegans[J]. Applied Animal Behaviour Science, 2023, 266: 106024. DOI: 10.1016/j.applanim.2023.106024
[35] 梁秀英,贾学镇,何磊,等. 基于YOLOv8n-seg和改进StrongSORT的多目标小鼠跟踪方法[J]. 农业机械学报,2024,55(2):295-305,345. LIANG Xiuying, JIA Xuezhen, HE Lei, et al. Multi-object mice tracking based on YOLO v8n-seg and improved StrongSORT[J]. Transactions of the Chinese Society for Agricultural Machinery, 2024, 55(2): 295-305, 345. (in Chinese with English abstract)
[36] 宋加政,马本学,许莹,等. 采用机器学习的苗期棉株点云器官分割与表型信息提取[J]. 农业工程学报,2024,40(23):199-207. SONG Jiazheng, MA Benxue, XU Ying, et al. Organ segmentation and phenotypic information extraction of cotton plant point cloud at the seedling stage using machine learning[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2024, 40(23): 199-207. (in Chinese with English abstract)
[37] LIU C Q, YE H J, LU S H, et al. Skeleton extraction and pose estimation of piglets using ZS-DLC-PAF[J]. International Journal of Agricultural and Biological Engineering, 2023, 16(3): 180-193. DOI: 10.25165/j.ijabe.20231603.6930