Research progress of obstacle detection and obstacle avoidance technology for agricultural robots
-
摘要:
障碍物检测与避障技术是农业机器人自动导航的关键技术。准确感知和规避障碍物,能够保证农业机器人在复杂环境中安全作业,降低人力成本,提高生产效率。该文从不同角度概述了不同类型的单一传感器技术和多传感器融合技术在农业机器人障碍物检测方面的应用。首先,综述了采用RGB相机、全景相机、双目相机、深度相机、激光雷达、超声波雷达、毫米波雷达等单一传感器进行障碍物检测的研究进展,详细阐述了各传感器的优势与局限性。其次,概述了采用视觉传感器与激光雷达融合、视觉传感器与毫米波雷达融合等多传感器融合技术在障碍物检测方面的研究进展,并详细分析了不同传感器融合技术的特点与优势。农业机器人主要分为大型农业机械、小型农业机器人与农业无人机3种类型。针对不同类型的农业机器人,系统性地综述了近年来农业机器人避障技术的研究进展,重点分析了各类技术在复杂农业场景中的应用特点、关键挑战及发展趋势。最后,对农业机器人障碍物检测与避障技术的研究现状与面临的挑战进行总结与展望,以期为农业机器人自动导航的快速发展提供相关理论依据和技术参考。
Abstract:Obstacle detection and avoidance are critical technologies in the autonomous navigation of agricultural robots. The ability to accurately perceive and avoid obstacles ensures the safe operation of agricultural robots in complex environments, reduces labor costs, and improves production efficiency. This paper provides a comprehensive review of the applications of single-sensor technologies and multi-sensor fusion technologies in obstacle detection for agricultural robots from various perspectives. First, the paper reviews recent advancements in using single-sensor technologies for obstacle detection, including RGB cameras, panoramic cameras, stereo cameras, depth cameras, LiDAR, ultrasonic radar, and millimeter-wave radar. The technical advantages and limitations of each type of sensor are analyzed in detail. For example, RGB and depth cameras offer high spatial resolution and are effective in structured environments but face challenges in low-light or high-dust conditions. Similarly, LiDAR provides precise distance measurements and is highly reliable for obstacle detection but remains costly for large-scale deployment. Ultrasonic and millimeter-wave radars, known for their robustness in harsh conditions, are often limited by their resolution and detection range. These analyses highlight the trade-offs involved in adopting specific sensors for agricultural robotics. Second, the paper summarizes the research progress in multi-sensor fusion technologies for obstacle detection, such as the integration of visual sensors with LiDAR and the fusion of visual sensors with millimeter-wave radar. Detailed analyses are provided on the characteristics and advantages of these fusion techniques. For instance, combining vision-based sensors with LiDAR enhances obstacle detection accuracy by leveraging the complementary strengths of high-resolution imagery and precise distance measurements. Similarly, the fusion of millimeter-wave radar with vision-based systems enables reliable detection in adverse weather conditions, such as rain or fog, while mitigating the limitations of individual sensors. These fusion approaches are discussed in the context of their suitability for various agricultural scenarios, emphasizing their ability to enhance the robustness and reliability of obstacle detection systems. Additionally, the paper reviews the progress of obstacle avoidance technologies for agricultural robots. Agricultural robots are broadly categorized into three types: large-scale agricultural machinery, small agricultural robots, and agricultural drones. For each category, the paper systematically examines the recent advancements in obstacle avoidance technologies, focusing on their applications in complex agricultural environments. The discussion highlights the unique requirements and challenges faced by each type of robot. For instance, large-scale agricultural machinery requires highly reliable obstacle avoidance systems to navigate expansive fields efficiently, while small robots emphasize flexibility and precision in row crops. Agricultural unmanned aerial vehicle, operating in three-dimensional environments, face unique challenges in real-time obstacle detection and avoidance due to their high-speed motion and variable terrain. Finally, the paper summarizes the current state of research and identifies the key challenges in obstacle detection and avoidance technologies for agricultural robots. These include the need for improving the adaptability of sensors and algorithms to highly dynamic agricultural environments, reducing the cost and energy consumption of sensing systems, and enhancing the robustness of multi-sensor fusion approaches. Furthermore, this paper provides a forward-looking perspective on the development of these technologies, offering theoretical foundations and technical references to accelerate the advancement of autonomous navigation for agricultural robots. This comprehensive review aims to contribute to the field by identifying current limitations and exploring innovative solutions, ultimately facilitating the safe and efficient deployment of agricultural robots in diverse and challenging environments.
-
0. 引 言
智慧农业是新一代电子信息技术与农业生物系统工程的深度融合,可有效降低农业生产成本、提高作业效率[1]。农业机器人是实施智慧农业的基础性装备、具备环境感知、路径规划与作业执行能力[2-3],能够在农业成产中代替人工作业,完成播种、施肥、植保、采摘等任务,显著提高作业精度与作业效率,促进农业可续发展[4-5]。障碍检测与避障技术能够帮助农业机器人及时感知周围障碍物,从而避免碰撞,是保障农业机器人安全工作的关键技术[6-8]。
障碍物检测与避障的核心任务是在未知环境中利用传感器感知周围信息,实现自主避障[9-11]。系统由感知层、决策层和执行层组成:感知层获取并分析环境数据,识别障碍物的类型、位置及运动状态;决策层制定避障策略;执行层控制农业机器人减速、制动和转向以完成避障。
农田是典型的非结构化环境,具有地面不平整、障碍物种类多、指示标志缺少等特点,这些特点增加了传感器环境感知与避障决策的难度[12-14]。计算机视觉、传感器技术和机器学习的发展推动了农业机器人障碍物检测技术的进步[15-17]。激光雷达[18]、相机[19]、毫米波雷达[20]等新型传感器为导航决策提供了可靠数据支撑[21]。采用单一类型的传感器具有成本低、易于部署等优点,但在复杂的农田环境感知中具有一定的局限性。多传感器的融合能够利用不同传感器的优点,弥补单一传感器的不足[22-23]。
目前避障技术在结构化城市道路中应用较多[24],这些方法在特定的环境中取得了较好的避障效果。相较于结构化程度较高的道路交通环境,农田环境具有明显的非结构化特征,地形复杂、目标类型多样且分布不规则,使得农业机器人在避障方面面临更大的挑战。因此,近年来农业机器人的避障技术逐渐成为研究热点。
本文对农业机器人障碍物检测与避障领域相关研究成果进行梳理总结与深入分析,首先针对农业机器人障碍物检测方面的研究,从基于单一类型传感器的障碍物检测和基于多传感器融合的障碍物检测两个方面进行概述,并深入分析不同的障碍物检测方法的优缺点。针对农业机器人避障技术,根据其应用场景与运动特点,将农业机器人分为大型农业机械、小型农业机器人和农业无人机3种类型,对不同类型农业机器人在不同环境下的避障技术应用进行综述。最后总结相关技术的研究进展与存在的挑战,并探讨未来研究的重点与发展方向。
1. 农业机器人障碍物检测技术
准确的障碍物检测是实现农业机器人自主导航与避障的前提,常见的障碍物检测传感器包括:视觉传感器、激光雷达、毫米波雷达和超声波传感器等。视觉传感器利用图像特征检测与跟踪障碍物。激光雷达通过测量激光往返时间精准获取目标位置与轮廓。毫米波雷达具有较强的穿透能力,利用无线电信号进行距离测量,可检测障碍物的位置与运动状态。超声波雷达测量反射时间感知近距离障碍物。常见的障碍物检测传感器类型与性能分析如表1所示。
1.1 基于视觉传感器的障碍物检测
视觉传感器被广泛应用于农业机器人障碍物检测领域[25-27]。常见的视觉传感器包括RGB相机、全景相机、飞行时间(time-of-fight,ToF)相机、结构光相机和双目相机等[28]。常见的视觉传感器类型及性能对比如表2所示。
表 2 不同类型视觉传感器对比Table 2. Comparison of different types of vision sensors视觉传感器
Visual sensor测距原理
Ranging principle优点
Advantage缺点
Disadvantage参考文献
ReferenceRGB相机 分析相邻图像的差异、根据先验知识或物体大小计算 成本低、高分
辨率获取的距离信息精度较低 [29] 双目相机 RGB图像特征匹配,三角测距间接计算 成本低、高分辨率、能够获取物体的距离信息 受光照变化影响较大、不适用缺乏纹理信息
的场景、计算复杂度高[30] ToF相机 根据光的飞行时间直接测量 能够获取物体距离信息、对光照有较高鲁棒性 成本较高、功耗较大、分辨率较低 [31] 结构光相机 主动投射已知编码图案,计算物体三维形状与深度信息 能够准确地获取物体距离信息、计算复杂度低 成本较高、易受强光干扰 [32] 全景相机 分析相邻图像的差异、根据先验知识或物体大小计算 视野广、
分辨率高成本高、图像处理算法复杂度
较高[33] 常见的基于视觉传感器的障碍物检测方法主要分为传统图像处理方法与基于深度学习的方法。传统方法具有计算简单、处理快速的优点,但对于复杂场景和快速运动的障碍物检测效果较差[34-35]。基于深度学习的方法在复杂场景下表现出色,但相对于传统方法计算复杂度较高[36-38]。
1.1.1 RGB相机
RGB相机作为一种成本低、安装灵活的传感器,能够提供丰富的外观信息,在农业机器人障碍物检测领域得到了广泛应用。基于RGB相机常见的障碍物检测方法如图1所示。
(1)静态障碍物检测
韩永华等[39]利用图像中作物与非作物频率信息的区别,采用小波多分辨率分解方法识别农田障碍物,并获取障碍物的位置信息。宋怀波等[40]利用霍夫变换进行道路检测,然后提取出纯路面区域并进行再次分割,最后根据分割结果进行路面障碍物定位,但是该方法不适用于检测不规则的路面与障碍物。张跃东等[34]采用Harris角点检测算法提取角点作为目标特征点并在图像序列中对其进行跟踪,并利用Depth-from-Motion深度估计方法根据图像序列中特征点间距离的变化和无人机的运动速度计算障碍物距离。上述基于传统图像处理的方法在特定环境下能够准确识别障碍物,但该类方法需要人工提取特征,在光照变化较大的环境下适应性较差。
随着深度学习算法的不断演进和硬件技术提升,基于深度学习的目标检测算法被广泛应用[41-42],主要包括以区域卷积神经网络(region-cnn,R-CNN)系列[43]为代表的双阶段目标检测算法和以YOLO(you only look once)系列[44]、SSD(single shot multiBox detector)系列[45]等为代表的单阶段目标检测算法。双阶段目标检测算法首先产生候选区域,然后对位置精修并进行候选区域分类,识别准确率较高,但推理速度较慢。单阶段目标检测算法直接产生物体的类别概率和位置坐标,经过单次检测即可得到最终检测结果,但是识别精度通常低于双阶段目标检测算法。WANG等[46]对Faster R-CNN方法进行改进,提出了结合 Non-Local和Deformable 模块的农田障碍物检测方法。LI等[47]针对果园障碍物检测问题,对YOLOv3模型进行改进,采用 MobileNet V2作为主干特征提取网络,并引入高斯模型,障碍物识别的精度达到91.76%。蔡舒平等[48]提出的基于改进YOLOv4的检测方法,平均识别准确率提升至96.92%。刘慧等[49]提出了基于改进SSD的目标检测方法,对田间行人的平均识别准确率为97.46%。尽管基于深度学习的障碍物检测方法在复杂环境中表现出较高的鲁棒性,但现有研究未考虑相机抖动所导致的图像模糊对深度学习模型的影响。在复杂的环境中,由于相机抖动、目标运动等影响,图像可能出现模糊,进而导致检测精度下降。
针对模糊图像输入的问题,薛金林等[50]提出了基于改进的Faster R-CNN和简化尺度循环网络(simplified scale recurrent networks,SSRN-DeblurNet)的两阶段检测方法,以提高区域候选网络中目标区域的质量。与原始Faster R-CNN 相比,改进模型的mAP值提高,并且有效减少模糊农田图像中的障碍物误检和漏检现象。CHENG等[51]提出了基于循环神经网络(recurrent neural network,RNN)和光流引导特征的农业障碍物检测方法,采用区域共享策略,有效提高了视频去模糊的效率,解决了视频中常见的运动模糊问题,显著提升了农业障碍物检测的精度和稳定性。
(2)动态障碍物检测
农田环境中通常存在大量动态障碍物[52-53]。周俊等[54]针对农业机器人自主导航过程中遇到的动态障碍物,通过视觉图像信息补偿机器人自身运动引起的图像位移,然后采用帧差法检测动态障碍物。CAMPOS等[55]提出了基于视频时空分析检测农田中的动静态障碍物,基于图像颜色和纹理数据检测障碍物的位置,然后基于时空信息识别视野中障碍物的运动状态。上述传统机器学习的方法对光照的稳定性要求较高,通常适用于简单场景,在光照变化较大的室外环境下难以适用。
基于深度学习的方法对于复杂环境具有较高的鲁棒性。QIU等[56]针对稻田中的运动障碍物提出基于改进YOLOv3和Deep Sort结合的方法,该方法在处理单元上达到了5~7帧/s的速度,基本满足实际作业需求。
上述研究表明,随着深度学习技术的发展,虽然RGB相机能在复杂环境中准确识别障碍物,但该传感器难以获取障碍物的距离信息,因此实际应用中通常需要结合其他传感器以提高识别的可靠性。
1.1.2 全景相机
相比其他相机,全景相机可以提供360°的全景视野,能够全方位感知周围环境[57-58]。YANG等[59]采用Luas-Kanade光流检测方法识别全景图像中的人,并采用平方差匹配方法定位人的位置,可以准确检测到4~11 m范围内的人。
XU等[60]采用Lucsas-Kanade光流法检测全景图像中的移动障碍物,并建立背景光流动态模型,结合K-means聚类算法和光流状态进行聚类,根据聚类结果获取障碍物的位置,动态障碍物检测准确率为 82.93%。尽管光流法在估计物体运动方向和速度方面具有广泛应用,但该方法是基于图像亮度连续性的假设,在快速运动、遮挡、纹理缺失等情况下容易产生错误的光流估计结果,且对曲线运动物体检测效果较差。
陈斌等[33]采用改进YOLOv3-tiny算法检测农田中的障碍物,检测准确率为 95.5%。但是需要预先获取大量的农田障碍物数据进行训练。针对上述问题,WANG等[61]提出了一种零样本障碍物检测方法,在深度学习模型中引入编码器和解码器级联模块,并结合语义空间分类和无锚点定位模块来检测障碍物,对未知障碍物的检测准确率为 94.66%。
虽然基于全景相机的障碍物检测方法取得一定进展,但其图像易产生视角畸变,影响检测精度。此外,图像数据量大,难以在嵌入式平台上满足实时性要求。
1.1.3 深度相机
深度像机有较高的深度测量精度和更强的环境感知能力,根据其工作原理可以分为 ToF相机与结构光相机两种类型,如图2所示。ToF相机测距是通过给目标连续发送光脉冲,然后用传感器接收目标返回的光脉冲,通过探测光脉冲的往返时间得到目标物距离。结构光相机通过发射结构化的光斑或光条,然后捕捉光斑或光条在物体表面的形变,推断出物体与相机之间的距离。相较于传统的二维图像,深度图像不仅能够反映物体的表面特征,还能提供空间位置信息。
传统的图像处理方法因其低计算复杂性,通常适用于处理简单场景中的图像。BALL等[62]提出了基于异常区域检测的障碍物识别方法,首先处理图像并检测新区域,然后对新区域进行立体匹配,生成三维点云,最后对点云进行滤波,确定障碍物位置。万旭等[63]针对室内导航机器人,采用BLOB(binary large object) 分析法对采集的深度图像进行分割,获取障碍物的质心坐标与深度值,根据障碍物的位置信息生成避障指令。钟深友[64]设计了基于RealSense D435深度相机的自主移动机器人避障系统。采用改进后的背景差分法提取出障碍物,利用深度图像获取障碍物距离。NISSIMOV等[65]提出了基于Kinect 3D传感器的温室障碍物检测方法,通过计算深度数据的坡度生成障碍物地图,并利用彩色和纹理特征对疑似障碍物进行分类,该方法在计算资源有限的条件下具有较高的实时性和较低的误检率。上述基于传统机器学习的障碍物检测方法通常需要人为设计提取特征,在复杂光照变化环境中难以适应。
基于深度学习的方法对光照具有较高的鲁棒性[66]。INOUE等[67]采用YOLOv3算法检测障碍物位置,然后利用深度图像中的对应深度值估计障碍物距离。LI等[32] 在小麦收割机上安装深度相机进行障碍物检测与避障,采用 通道剪枝方法对ICNet语义分割模型进行剪枝与优化,以便部署到 Jetson Xavier嵌入式设备上。在Jetson Xavier NX计算平台上的平均处理速度为32.2帧/s,检测准确率达到96.6%。WANG等[68]使用深度相机对无人机周围环境进行三维感知,将获取的彩色图像输入YOLOv3模型进行训练并获取障碍物的类别与位置信息。并将目标检测结果映射到优化后的深度图像上,提取障碍物的深度信息,障碍物检测准确率为75.4%,深度估计误差为 0.53 m。SKOCZEŃ等[69]在室外割草机上安装RealSense D435深度相机检测周围环境中的障碍物,采用DeepLab3+算法分割图像中得到障碍物,然后将障碍物与深度信息进行匹配,深度估计误差为0.38 m,在应用中根据距离信息建立安全区域,实现了有效避障。
深度相机可直接获取物体深度信息,无需立体匹配,但在强光或弱光环境下精度受限,且有效检测距离较短。因此,深度相机主要用于室内机器人的障碍物检测与避障。
1.1.4 双目相机
双目相机基于立体成像原理,通过视差测量计算物体距离[70-72]。成本低,视野广,适用于室内外场景[73-75]。
传统图像处理方法早期广泛应用于基于双目相机的障碍物检测。姬长英等[76] 提出基于双目视觉的障碍物检测方法,利用双目视觉获取点云图,并结合密度补偿算法与投影处理,精确估计障碍物的距离和尺寸,28 m范围内的测距误差为2.43%,尺寸检测误差小于3%。丁幼春等[77]利用H、S颜色分量进行阈值分割获得潜在障碍物区域,然后采用近似最近邻分类算法快速匹配SIFT(scale invariant feature transform)特征获得潜在障碍物的世界坐标,进一步确认障碍物与车辆之间的距离。苟琴等[78]通过设定视差阈值过滤远处景物,利用区域连通法识别独立的潜在障碍物,最后通过面积和高度阈值过滤,确定障碍物的位置。传统障碍物检测方法只能识别位置,无法区分类别,难以为后续避障决策提供支持。此外,传统机器学习方法对光照变化敏感,在复杂室外环境中表现较差。
基于深度学习的目标检测算法不需要手动设计特征提取器,且对光照有较高的鲁棒性。景亮等[30] 利用ZED双目相机获取图像的像素距离,并将其中一侧的RGB图像输入改进YOLOv3算法,检测行人的位置和类别。结合双目相机的像素信息,计算障碍物的三维坐标。试验结果显示,准确率和召回率分别为95.34%和91.52%,检测速度为30.26帧/s。然而,该方法依赖于大型计算平台,难以部署到移动农机平台[79]。魏建胜等[80]以嵌入式计算平台Jetson TX2为运算核心,设计了基于双目视觉的障碍物感知系统,该方法将左右图像分别输入改进YOLOv3模型进行障碍物检测,并对输出的检测框信息进行目标匹配和视差计算,实现障碍物识别、定位和深度估计。试验结果表明,检测准确率为89.54%,深度估计误差小于6%。然而,该方法无法同时检测多个障碍物。
从上述分析可见,双目相机能够同时获取障碍物的类别和深度信息。然而,深度图像生成受匹配精度影响较大,在缺乏纹理特征的场景中,匹配较为困难。
1.2 基于激光雷达的障碍物检测
激光雷达结合激光与光电检测技术,视野广、探测远、分辨率高、响应快速及抗干扰能力强,且不受光照影响[81-82]。常见的激光雷达类型及其性能对比如表3所示。
表 3 不同类型激光雷达性能对比Table 3. Performance comparison of different types of LiDAR分类标准
Classification
standard类型
Type优点
Advantage缺点
Disadvantage适用场景
Application
scenario测距原理 脉冲式 成本低,精度
较高测量速度相对
较慢远距离测量 调试连
续波测量速度较快 精度较低 近距离测量 感知维度 二维 成本低,数据处理简单,测量速度快 无法感知三维
信息室内等简单
场景三维 能够感知物体的三维信息 成本高,数据处理复杂 室外等复杂的
多层次场景机械结构 机械 测量精度较高,较大的水平视场角,成本较低 易磨损,扫描速度较慢 工业测量,
低速运动场景固态 使用寿命长,扫描速度较快 精度较低,水平视场角较小,成本较高 低速或高速
运动场景1.2.1 二维激光雷达
二维激光雷达只能在一个平面扫描,具有结构简单,成本低,计算复杂度低等优点,广泛应用于室内机器人环境感知[83]。室内环境相对较为规则,障碍物通常具有规则几何形状,易被二维激光雷达检测与建模。PENG等[84]针对地面移动机器人提出基于二维激光雷达的障碍物检测与避障方法,使用中值滤波法对数据进行滤波,然后对距离较近的点云进行分类,最后对点云数据进行聚类,划分为不同的形状。MADHAVAND等[85]利用二维激光雷达获取点云数据,首先对数据进行滤波以去除噪声,然后对数据进行聚类,并将其关联为对应的形状。GAO等[86]针对室内移动机器人设计了基于单线激光雷达的障碍物检测与避障系统,该方法对点云数据进行滤波与聚类,以获取障碍物的位置。
二维激光雷达在一些平坦的室外场景中仍具备较大应用潜力[87-88]。张向阳[89]采用单线激光雷达对果园中的树干进行检测,并利用自适应密度聚类算法实现树干的识别与定位。SHANG等[90]在收割机上安装二维激光雷达,并提出多障碍物识别方法,该方法首先对原始点云数据进行坐标转换和滤波处理,随后采用基于密度的聚类算法识别障碍物的数量和宽度,最后通过帧差法计算障碍物与车身的相对运动速度及碰撞时间,在多障碍物检测中的准确率达到95.06%。
单线激光雷达主要适用于较为平坦的环境,但在崎岖地形中受限,因仅能扫描单一平面,难以检测范围外障碍物,难以适应复杂室外环境。
1.2.2 三维激光雷达
三维激光雷达能够准确还原周围环境的三维信息,捕捉环境细节,广泛应用于农业机器人中[91]。
JI等[92]以拖拉机为平台,提出了基于3D LiDAR的障碍物检测方法,该方法首先去除地面点云,然后使用欧氏距离聚类,并基于主成分分析为每个聚类建立盒子模型,提取特征集合,最后通过多条件分支分类方法识别障碍物类别,识别准确率超过80%。SHANG等[93]提出基于几何特征的障碍物检测方法,利用障碍物三维点云的几何特征,采用支持向量机算法(support vector machine,SVM)进行分类。尚业华等[94]使用RANSAC(random sample consensus)算法分割地面点云,随后基于K-D树进行欧式聚类,最后通过聚类点云的数量和外接长方体体积识别障碍物。上述方法均依赖人工设计特征,泛化能力较差。
相比之下,基于深度学习的方法具有强大的自主学习能力。QIN等[95]训练了基于Focal Voxel R-CNN的3D障碍物检测模型,取得了91.43%的mAP值,比原模型提高了3.36%。然而,传统深度学习的模型需要大量带标签的数据集进行训练,而田间障碍物数据集较为稀缺,难以获取足够的训练样本。因此,WANG等[96]提出基于语义信息-几何信息-激光反射强度信息融合的单样本域自适应方法检测田间障碍物,通过学习类别内的相似与类别间的差异,将对目标域(田间障碍物)的依赖转移到公开数据集中。CORTÉS等[97]提出无监督域自适应训练策略,在不使用额外标签的情况下,显著提高了模型在目标域上的准确率。
上述利用激光雷达进行障碍物检测的方法仅依赖单帧点云数据进行处理。而对于动态障碍物的检测与跟踪需要利用相邻帧的点云数据进行运动估计和轨迹跟踪[98]。针对动态障碍物的跟踪,JI等[99]通过关联不同相邻帧的点云数据,基于恒速模型的卡尔曼滤波实现了多目标的状态估计。通过对目标运动轨迹和特征的建模与分析,成功实现了对目标的准确跟踪与预测。JIANG等[100]提出基于栅格地图的障碍物检测与跟踪方法,结合区域生长与密度聚类对点云进行动态聚类,然后利用几何特征与密度特征进行障碍物关联,最后通过卡尔曼滤波算法实现跟踪。与传统的 DBSCAN 聚类方法相比,检测精度提高,检测时间缩短。
三维激光雷达能够以高精度和高分辨率获取环境的三维空间信息,从而准确定位障碍物的位置、形状和尺寸。然而,三维点云数据量庞大,快速处理这些数据仍是一个挑战[101-103]。另外,由于激光雷达通常仅提供距离和反射强度信息,缺乏颜色和纹理等丰富的图像信息,因此难以识别障碍物的类别。因此,实际应用中通常需要结合其他传感器,提高检测的准确性和鲁棒性。
1.3 基于毫米波雷达的障碍物检测
毫米波雷达以其低成本、强穿透性和全天候工作的特点,在农业机器人障碍物检测得到广泛应用[104-106]。
薛金林等[107]针对基于毫米波雷达的农田障碍物检测,提出无效目标滤除方法,解析毫米波雷达输出的目标信息,并提取农田中障碍物的相关数据,然后使用无效目标滤除算法去除空目标、伪目标和非威胁数据。谭政[108]利用毫米波的多普勒频移特性,检测返回波形在障碍物上的变化,提出基于毫米波的障碍物检测算法,通过计算雷达与障碍物之间的相对距离和角度,精确定位障碍物。孙柯等[109]针对植保无人机的障碍物检测,设计了基于毫米波雷达的避障系统,利用前方距离、侧方距离和宽度信息表示障碍物相对于毫米波雷达的位置。SONG等[110]提出基于弯道的目标跟踪方法,首先对毫米波雷达数据进行滤波,接着使用曼哈顿聚类算法进行聚类,最后采用改进的自适应扩展卡尔曼滤波算法对目标进行跟踪。
上述研究仅检测障碍物位置与距离,无法识别障碍物类别。毫米波雷达测距精度高,适用于恶劣天气,但空间分辨率低,难以识别小目标与类别。复杂环境下,常与其他传感器融合以提升感知能力[111]。
1.4 基于超声波雷达的障碍物检测
超声波传感器因其成本低廉且不受光线、烟雾、灰尘等环境因素影响,广泛用于近距离障碍物检测[112-113]。
石彪等[114]提出基于概率理论和D-S证据理论的毫米波雷达障碍物检测方法,通过对获取的信息进行分析与融合,能够准确描述障碍物的位置,从而实现机器人对周围环境的精确探测。贾闯等[115]基于渡越时间法设计了果园单轨运输机避障系统,该系统能够实时检测前方的各类障碍物,当运输机遇到障碍物时,系统会自动停车。GIBBS等[116]在无人机上安装超声波传感器探测障碍物的距离,利用超声波的最大峰值频率、功率谱密度、能量谱密度等多个信号值确定障碍物的方位。DE等[117]将多个超声波传感器安装在车辆前方不同位置,实现全方位感知车辆周围的障碍物信息,并根据检测到的障碍物距离调整车辆的运动。
超声波传感器能够为农业机器人提供障碍物的方位和距离信息,但其检测范围有限,仅能覆盖有限的水平和垂直角度,且测量距离较短,通常用于近距离障碍物检测与避障,因此在复杂的室外环境中应用较少。
1.5 基于多传感器融合的障碍物检测
通过融合不同传感器的信息,可以获得更全面、丰富且可靠的多源数据。与单一传感器相比,多传感器融合能够提供更多维度信息,从而提升障碍物检测的精度和感知能力[118]。
多传感器融合方式主要分为数据级、特征级和决策级[138],如表4所示。数据级融合将传感器的原始数据整合在一起,能最大程度地减少数据损失,可靠性高。特征级融合将各传感器提取的特征进行整合,结合不同的特征类型,获得更丰富、准确的特征表示。决策级融合整合不同传感器的感知结果,并采用一定的规则或算法进行综合决策,可获得全面、可靠且准确的最终结果。
1.5.1 激光雷达与视觉传感器融合
视觉传感器提供颜色与纹理信息,识别障碍物类别;激光雷达获取高精度三维信息。二者融合可提升感知能力,获取更全面、准确的环境信息[119]。
(1)数据级融合
激光雷达与视觉传感器数据融合如图3所示。数据级融合首先需对两个传感器的数据进行时间和空间同步,然后直接整合激光雷达与视觉传感器的原始数据[120]。
耿乾等[121]通过坐标转换将激光雷达与相机数据融合,利用图像信息和自建的深度学习模型识别障碍物的位置和类别,并通过点云信息规划避障路径。KUMAR等[122]将点云数据投影到图像中,利用图像信息识别障碍物类别,并通过点云数据获取障碍物距离。汪佩等[123]首先对单线激光雷达和图像进行联合标定,利用激光雷达检测负障碍物并在图像中标出其区域,随后采用CMT(consensus-based tracking and matching of keypoints for object tracking)算法对目标进行跟踪,结合跟踪结果确定障碍物位置。肖宇峰等[124]通过联合标定Kinect相机和二维激光雷达,建立深度图像与激光雷达测距点的对应关系,从而获取障碍物的位置和距离信息。
(2)特征级融合
特征级融合通过提取激光雷达和视觉传感器的信息特征,整合后形成更全面的特征表示,并结合机器学习算法得出检测结果。这种方法减少了数据维度,可提升算法速度[119]。激光雷达与视觉传感器的特征级融合示意图如图4所示。KRAGH等[125]提取图像中的纹理和颜色特征,同时获取激光雷达中的三维信息特征,利用 全球卫星导航系统(global navigation satellite system,GNSS)获取目标的位置信息,然后使用条件随机场模型(conditional random fields,CRF)模型对这些特征进行联合建模,分析它们之间的关联性和条件概率,从而实现果园中障碍物的准确识别。薛金林等[126]使用Ft(frequency-tuned)算法对图像进行显著性检测,同时进行激光雷达采集的点云数据的聚类分析,以确定障碍物的数量、边界和位置,接着以激光雷达坐标对应的图像像素坐标为种子点,通过受限区域生长算法进行障碍物分割,实现障碍物的准确检测。李凡等[127]对激光雷达采集的点云数据进行预处理,并进行聚类与多目标跟踪,以获取农田障碍物的三维空间和运动状态信息,使用YOLOv3算法识别图像中的障碍物类别,然后利用映射投影方法将三维点云结果和RGB图像目标检测结果进行空间融合,同时获取障碍物的三维位置信息和类别信息。
(3)决策级融合
决策级融合涉及分别处理激光雷达和视觉相机的原始数据,获取两个不同的检测结果,然后综合分析多个传感器的决策结果,得出最佳决策。激光雷达与视觉传感器的决策级融合示意图如图5所示。方旭[128]使用改进的YOLOv7算法识别图像中的障碍物并获取二维框,对激光雷达数据进行点云聚类获得三维框,利用点云簇体积区分树木与障碍物。通过二维框和三维框的投影面积交并比,确定单独目标在图像中的位置,并获取目标相对于植保机械的坐标信息。GATESICHAPAKORN等[129]采用单线激光雷达获取障碍物的二维信息,利用RGB-D深度相机感知障碍物的三维信息,最后将两种传感器数据分别进行互补决策,弥补了单一传感器出现漏检的情况。袁红斌等[130]采用D-S证据理论将车载相机和激光雷达数据进行融合,准确识别真实环境中的行人和车辆信息。
决策级融合涉及传感器数据分别经过独立处理后,各自得到障碍物检测结果,然后利用多个检测结果进行综合判断,增强了障碍物检测的可靠性。然而,当传感器性能存在较大差异时,可能会导致融合结果不稳定。
1.5.2 毫米波雷达与视觉传感器融合
毫米波雷达在恶劣天气和低光照下表现优异,能提供可靠感知信息,与视觉传感器结合使用,可增强农业机器人在复杂环境中的感知能力,提高障碍物检测与避障效率[131]。
(1)数据级融合
数据级融合能够充分利用毫米波雷达和视觉传感器提供的原始数据,从而获取更加全面的信息。HUANG等[132]将毫米波雷达与相机进行时间同步和空间坐标转换,将2个传感器数据进行数据级融合,结合Canny边缘检测算法与形态学处理技术,提取图像中障碍物的轮廓,同时利用毫米波雷达数据获取障碍物的距离信息。张岩等[133]将相机与竖直放置的毫米波雷达进行数据级融合检测农田前方田埂,利用图像中的颜色纹理特征快速处理得到图像中田埂边界线。然后辅助滤除毫米波雷达中干扰点进而得到田埂的距离和高度信息。检测偏差为0.11 m,满足农业机器人自主作业的实时性与准确性要求。KATO等[134]利用毫米雷达感知障碍物的距离,结合立体视觉技术从图像序列中获取障碍物的位置和边界,实现了对不同类型障碍物的准确检测。
基于视觉传感器与毫米波雷达的数据级融合需要通过时间同步与空间转换等操作对齐两种数据。数据级融合允许在同一坐标系下获取不同类型的数据,能够提供更全面、准确的环境感知信息。
(2)特征级融合
毫米波雷达提供目标位置和速度信息,视觉传感器提供外观和形状信息。特征级融合可获得更全面的目标描述,减少数据维度,降低计算成本,增强特征表征能力,提高检测准确性。
尚昊等[135]采用改进YOLO算法处理红外图像得到目标类别特征,然后利用毫米波雷达数据获得目标的距离和速度特征,最后基于特征融合算法,完成夜间行人多模态信息输出,既发挥了视觉传感器在目标类别特征提取的优势,又发挥了毫米波雷达在目标运动状态特征提取的优势。程蕾[136]通过毫米波雷达传感器获取候选目标的距离、角度和速度等信息,同时利用视觉信息提取前方车辆的图像特征。最后采用D-S证据理论对多个特征融合结果进行处理,计算信任度值,从而判断前方是否存在车辆。CHANG等[137]提出了一种基于毫米波雷达与视觉传感器的障碍物检测方法,对于两个传感器分别设计了两个基于卷积神经网络(convolutional neural network,CNN)模型的特征提取模块,并采用空间注意力融合(spatial attention fusion,SAF)模型对两种传感器提取的特征进行融合。最后利用公开数据集进行端到端训练,构建基于两种传感器特征提取的障碍物检测模型。
(3)决策级融合
在决策级融合中,毫米波雷达和视觉传感器的数据分别用于独立的决策任务,随后通过综合分析这些决策结果,并做出最终判断[138]。
LV等[139]利用毫米波雷达数据获取障碍物的速度和距离信息,并通过相机采集的图像提取丰富的语义信息。采用全局最近邻算法对两种传感器的数据进行关联,对成功关联的有效目标进行加权输出,从而获得障碍物的方位、速度和类别信息。刘立臣[140]采用毫米波雷达感知无人机前方的障碍物,并对飞行方向上的障碍物进行预警。通过双目相机获取前方障碍物的立体图像,利用立体匹配与视差法提取障碍物的三维信息,并将识别得到的三维信息投影到二维栅格平面,从而形成局部导航图。王晓斌[141]提出基于毫米波雷达与单目视觉融合的植保无人机障碍物识别方法,利用YOLOv5算法识别图像中的障碍物,并通过设定横向距离阈值筛选毫米波雷达数据中的有效目标,随后将雷达目标数据映射到图像中,并通过交并比方法与视觉检测结果融合,综合判断障碍物的存在。
1.5.3 多传感器的融合
除上述常见的传感器融合方式外,还可以将其他类型的多个传感器进行融合,如IMU(inertial measurement unit)、GNSS 传感器、超声波传感器、红外传感器等,进一步增强农业机器人的障碍物检测能力[142-144]。
KORTHALS等[22]使用激光雷达、立体视觉相机和GNSS传感器等获取农田环境中的图像、点云和位置信息,通过数据整合成功实现了静态与动态障碍物的检测,并将障碍物位置映射到地图中,生成障碍物地图。BENET等[145]采用激光雷达和深度相机分别检测田间不同距离处的目标,并将其与彩色相机数据相关联,通过结合颜色和几何信息来识别障碍物的类别。LIU等[146]通过北斗导航传感器和惯性测量单元获取农业机器人的位置和姿态信息,利用激光扫描仪实时检测机器人与障碍物的相对位置信息,并采用体素化网格法和欧式聚类法对点云数据进行滤波、聚类和分割。最后通过分析障碍物的位置信息变化,区分静态与动态障碍物。CHEN等[147]提出了一种基于摄像头和超声波传感器融合的树干检测方法。利用图像的HOG(histogram of oriented gradien)特征和支持向量机算法训练了一个树干分类器,并采用Roberts边缘检测提取梯度直方图特征,从而提高分类精度。同时利用超声波传感器获取树干的位置信息。
除视觉、激光雷达和毫米波雷达外,IMU、GNSS、超声波和红外传感器也广泛应用于障碍物检测。IMU提供运动数据,GNSS支持精确定位,超声波适用于近距离检测,红外传感器可在低光环境下工作。多传感器融合能在复杂环境中提供全面、准确的感知,提升自主导航与决策能力。
2. 农业机器人避障技术
农业机器人根据障碍物位置和形状信息规划避障路径并调整状态,避免碰撞。根据运动特性和机械结构,农业机器人分为大型农业机器人、小型农业机器人和农业无人机。大型机器人体积大、惯性大,适合大面积农田;小型机器人灵活,适合狭窄环境;农业无人机灵活性高,适用于空中任务,覆盖范围广[4]。不同类型农业机器人的避障特点如表5所示。
表 5 不同类型农业机器人避障特点Table 5. Obstacle avoidance characteristics of different types of agricultural robots农业机器人类型
Types of agricultural robots应用场景
Application scenario运动特点
Motion characteristics常见避障策略
Obstacle avoidance strategy大型 大田作业 惯性大、转弯半径大、低速 启停避障、左右慢速绕行 小型 温室、大田
作业转弯半径小、灵活性高、 启停避障、左右灵活绕行 无人机 大田作业 自由度高、灵活性高 启停避障、全方位灵活绕行 2.1 大型农业机器人
大型农业机器人主要包括拖拉机、收割机等,通常通过制动或者调整行进方向避开障碍物,而不是依赖高度机动性[148]。LI等[32]采用深度相机检测收割机前方的障碍物,并根据障碍物与收割机之间的距离,向收割机发出停止、减速或继续行驶等控制指令。魏建胜等[81]采用双目相机结合YOLOv3算法准确获取障碍物的位置与距离,当障碍物距离小于2.4 m时,触发电控液压转向模块,以固定右转角18°进行安全避障。然而,该方法仅通过固定转向角度进行避障,缺乏灵活性,无法有效实现绕行。
为了提高农业机器人的适应性与工作效率,需要设计更复杂的避障算法。为兼顾避障与土地利用率,CHEN等[149]提出基于遗传算法和贝塞尔曲线的避障路径规划方法,采用三阶贝塞尔曲线绘制避障路径,并通过全局路径与障碍物位置确定控制点的范围,能够在避障的同时有效提高土地利用率。ZHAO等[150]采用Minimum Snap算法为田间拖拉机生成避障路径,并结合改进的最短切线法优化路径,以满足路径跟踪的连续性、平滑性、运动约束和安全性等要求。杨样等[151]采用3D LiDAR检测前方障碍物,并利用贝塞尔曲线生成满足农机最小转弯半径等多重约束条件的路径簇。以曲率最小为优化目标,从路径簇中选择最优避障路径。
尽管大型农业机器人在静态障碍物避障研究取得一定进展,但动态障碍物避障技术仍较为薄弱。动态障碍物速度和运动方向的不确定性,感知与实时识别更加复杂,是提升农业机器人自主性和智能化的重要研究方向。
2.2 小型农业机器人
小型农业机器人惯性小、灵活性高,在避障方面具有快速反应、灵活机动、精准避障等优势。常见的小型农业机器人包括插秧机、植保机器人和除草机器人等。
张梦姣[152]利用双目相机感知周围环境,采用K-means算法分割出障碍物,利用视差法估计障碍物距离,并采用改进的人工势场法规划避障路径,在不同的场景进行仿真,结果表明所提方法达到了预先设定的功能且实时性较好。马耀锋等[71]提出基于双目视觉的农业机器人运动定位与避障系统。通过双目视觉获取障碍物信息,结合A*算法选择最优避障路径,并采用PID闭环控制算法调节方向盘转向。上述研究在仿真实验中表现出了良好的效果,但缺乏实车验证,因此无法充分确保系统在实际农田环境中的有效性和可靠性。
针对田间作业场景,INOUE等[67]利用深度相机并结合深度学习技术识别障碍物,并采用TEB(timed-elastic-band)算法生成避障路径,实现有效的避障操作。程嘉煜等[53]采用帧差法检测到运动障碍物,并结合速度障碍法与模糊控制算法,成功实现了有效避障。张向阳[89]利用单线激光雷达,采用自适应聚类的方法识别果园中的树干,然后采用改进的人工势场法规划避障路径,并采用 PID 控制算法对移动机器人进行导航控制。姜龙腾等[153]采用超声波传感器实时检测道路障碍物并结合GNSS信息实时更新位置坐标,采用人工势场法规划避障路径。
尽管小型农业机器人避障技术取得了一定进展,但现有算法主要针对静态障碍物,处理动态障碍物(如行人和动物)的能力较弱。此外,现有方法在复杂农田环境中的实车验证不足,难以确保实际应用中的可靠性。因此,动态障碍物实时识别与避障,以及复杂环境中的局部路径规划,仍是未来研究重点。
2.3 农业无人机
农业无人机具有高灵活性和自由度,能在空中执行监测、喷洒等任务,覆盖范围广,适用于多个农业生产环节[154]。
杨娟娟[155]设计了葡萄园农用无人机障碍物检测系统。当系统检测到与地面接触且高度较低的障碍物时,控制无人机上升;当检测到空中飞行物时,控制无人机下降;当检测到较高的障碍物时,控制无人机进行偏航运动。WANG等[156]利用RGB-D相机获取前方障碍物的类别与三维信息,遇到矮小障碍物时通过调整高度进行避障,对于高大障碍物则进行绕行,若有人出现在无人机飞行路线上,则立即悬停并发出警告。这种多维度障碍物检测与避障策略有效提升了无人机在复杂环境中的安全性与作业效率。HUANG等[157]利用毫米波雷达与单目相机识别障碍物,然后基于改进的 A*算法规划植保无人机避障路径。
农业无人机的避障路径规划相对简单,但受传感器和计算平台的限制,面临轻量化和实时性挑战。未来研究关键在于优化数据处理算法、减小计算平台体积并降低能耗,从而提升响应速度、运行效率和适应性。
3. 总结与展望
本文针对农业机器人障碍物检测的研究,分别介绍了基于机器视觉、激光雷达、毫米波雷达及多传感器融合等方法,并总结了各类传感器在障碍物检测中的优缺点。单一类型传感器在农业机器人障碍物检测中存在一定的局限性,因此,多传感器融合方法被广泛应用,以提高检测的准确性和鲁棒性。然而,多传感器融合的实施增加了农业机器人的硬件成本与系统复杂性。传统的机器学习方法在复杂环境中的鲁棒性较差,容易受到环境变化的影响。而基于深度学习的方法虽然在复杂环境中表现出较高的准确率,但对于未出现过的障碍物类型,难以实现准确识别。因此,未来的研究应着重提升深度学习模型的泛化能力,增强农业机器人在未知环境中的障碍物检测与避障能力。
在农业机器人障碍物避障的研究中,针对温室、大田等不同场景下静态障碍物的避障技术已经取得了显著进展。通过融合多种传感器,并结合障碍物检测、局部路径规划与路径控制等算法,已实现高精度的静态障碍物检测与避让。由于动态障碍物的速度、方向和行为存在较大的不确定性,给农业机器人的实时检测与避让带来了更高的复杂性和难度。目前,关于动态障碍物避障的研究相对较少,相关技术尚不成熟。因此,未来的研究应重点关注动态障碍物的识别、预测和避让策略的优化,以提升农业机器人在复杂动态环境中的自主导航与避障能力。
针对当前农业机器人障碍物检测与避障技术的研究进展及其局限性,提出以下发展建议:
1)障碍物检测方向
针对农业机器人障碍物检测研究,未来研究工作可重点从以下几方面开展:(1)专注于提升障碍物检测系统的泛化能力,使其不仅能在复杂环境中准确识别训练时出现过的各类障碍物,还能有效识别未出现过的障碍物。为此,可以利用大模型进行半监督学习或弱监督学习,结合少量标注数据和大量非标注数据进行训练,以扩展模型的适应范围。此外,采用生成对抗网络(generative adversarial network,GAN)等技术生成虚拟仿真数据,模拟不同类型和形态的未知障碍物,扩充训练数据集,提高模型的泛化能力和对未知障碍物的感知能力。(2)优化计算效率,在保证多传感器有效融合的同时,减少计算复杂度。可探索更高效的算法结构,如轻量化网络模型、剪枝技术、知识蒸馏等,提升模型在边缘计算设备上的运行效率。(3)增强算法在不同天气条件下的适应能力,提高检测系统的鲁棒性和稳定性。可采用域自适应技术,提升算法在各种天气条件下的可靠性,保证农业机器人能够在不同天气条件下稳定执行作业。
2)避障方面
目前针对动态障碍物的避障研究相对较少。由于动态障碍物的高度不确定性和使得其检测和避障都更为复杂。未来研究可重点从以下几方面开展:(1)利用机器学习算法,如动态窗口法(dynamic window approaches, DWA)、模糊预测控制(model predictive control,MPC),对动态障碍物进行建模与预测,准确识别动态障碍物的运动模式和趋势,从而预测其未来运行轨迹。(2)利用车联网技术,将农业机器人与其他农业设备、智能农场系统等连接起来,实现信息共享和实时通信,获取其他农业设备的位置、速度等信息,从而以更高维度的视角统筹规划所有农业机器人的作业路线,避免农业机器人之间的碰撞事故,在多机协同的基础上实现机-田协同。(3)构建农田环境高精度地图,结合实时障碍物位置和农业机器人作业路径,为避障路径规划算法提供更精确的输入数据。进一步提升避障效果与作业效率。(4)综合考虑农业机器人与动态障碍物之间的安全距离、优先级和合作规则,基于动态障碍物的速度、方向及其预测轨迹,设计智能避障策略,实时计算适当的安全距离,并采取灵活的避障策略,从而实现高效且安全的避障操作。
-
表 1 不同类型障碍物检测传感器对比
Table 1 Comparison of different types of obstacle detection sensors
表 2 不同类型视觉传感器对比
Table 2 Comparison of different types of vision sensors
视觉传感器
Visual sensor测距原理
Ranging principle优点
Advantage缺点
Disadvantage参考文献
ReferenceRGB相机 分析相邻图像的差异、根据先验知识或物体大小计算 成本低、高分
辨率获取的距离信息精度较低 [29] 双目相机 RGB图像特征匹配,三角测距间接计算 成本低、高分辨率、能够获取物体的距离信息 受光照变化影响较大、不适用缺乏纹理信息
的场景、计算复杂度高[30] ToF相机 根据光的飞行时间直接测量 能够获取物体距离信息、对光照有较高鲁棒性 成本较高、功耗较大、分辨率较低 [31] 结构光相机 主动投射已知编码图案,计算物体三维形状与深度信息 能够准确地获取物体距离信息、计算复杂度低 成本较高、易受强光干扰 [32] 全景相机 分析相邻图像的差异、根据先验知识或物体大小计算 视野广、
分辨率高成本高、图像处理算法复杂度
较高[33] 表 3 不同类型激光雷达性能对比
Table 3 Performance comparison of different types of LiDAR
分类标准
Classification
standard类型
Type优点
Advantage缺点
Disadvantage适用场景
Application
scenario测距原理 脉冲式 成本低,精度
较高测量速度相对
较慢远距离测量 调试连
续波测量速度较快 精度较低 近距离测量 感知维度 二维 成本低,数据处理简单,测量速度快 无法感知三维
信息室内等简单
场景三维 能够感知物体的三维信息 成本高,数据处理复杂 室外等复杂的
多层次场景机械结构 机械 测量精度较高,较大的水平视场角,成本较低 易磨损,扫描速度较慢 工业测量,
低速运动场景固态 使用寿命长,扫描速度较快 精度较低,水平视场角较小,成本较高 低速或高速
运动场景表 4 不同级别数据融合对比
Table 4 Different levels of data fusion and comparison
表 5 不同类型农业机器人避障特点
Table 5 Obstacle avoidance characteristics of different types of agricultural robots
农业机器人类型
Types of agricultural robots应用场景
Application scenario运动特点
Motion characteristics常见避障策略
Obstacle avoidance strategy大型 大田作业 惯性大、转弯半径大、低速 启停避障、左右慢速绕行 小型 温室、大田
作业转弯半径小、灵活性高、 启停避障、左右灵活绕行 无人机 大田作业 自由度高、灵活性高 启停避障、全方位灵活绕行 -
[1] SHAFI U, MUMTAZ R, GARCÍA-NIETO J, et al. Precision Agriculture Techniques and Practices: From Considerations to Applications[J]. Sensors, 2019, 19(17): 3796-3820. DOI: 10.3390/s19173796
[2] 谢斌,武仲斌,毛恩荣. 农业拖拉机关键技术发展现状与展望[J]. 农业机械学报,2018,49(8):1-17. DOI: 10.6041/j.issn.1000-1298.2018.08.001 XIE Bin WU Zhongbin MAO Enrong. Development and prospect of key technologies on agricultural tractor[J]. Transactions of the Chinese Society for Agricultural Machinery, 2018, 49(8): 1-17. (in Chinese with English abstract) DOI: 10.6041/j.issn.1000-1298.2018.08.001
[3] ZHANG Q. Opinion paper: Precision agriculture, smart agriculture, or digital agriculture[J]. Computers and Electronics in Agriculture, 2023, 211: 107982. DOI: 10.1016/j.compag.2023.107982
[4] 刘成良,贡亮,苑进,等. 农业机器人关键技术研究现状与发展趋势[J]. 农业机械学报,2022,53(7):1-22. DOI: 10.6041/j.issn.1000⁃1298.2022.07.001 LIU Chengliang, GONG Liang, YUAN Jin, et al. Current status and development trends of agricultural robots[J]. Transactions of the Chinese Society for Agricultural Machinery, 2022, 53(7): 1-22. DOI: 10.6041/j.issn.1000⁃1298.2022.07.001
[5] 张漫,季宇寒,李世超,等. 农业机械导航技术研究进展[J]. 农业机械学报,2020,51(4):1-18. DOI: 10.6041/j.issn.1000-1298.2020.04.001 ZHANG Man, JI Yuhan, LI Shichao, et al. Research progress of agricultural machinery navigation technology[J]. Transactions of the Chinese Society for Agricultural Machinery, 2020, 51(4): 1-18. (in Chinese with English abstract) DOI: 10.6041/j.issn.1000-1298.2020.04.001
[6] FANG H, CHEN H, JIANG H, et al. Research on method of farmland obstacle boundary extraction in UAV remote sensing images[J]. Sensors, 2019, 19(20): 4431-4443. DOI: 10.3390/s19204431
[7] 成科扬,朱雪森,裴运申,等. 农业自动化机械障碍物检测研究进展[J]. 江苏大学学报(自然科学版),2023,44(4):415-425. DOI: 10.3969/j.issn.1671-7775.2023.04.007 CHENG Keyang, ZHU Xuesen, PEI Yunshen, et al. Research progress of agricultural automatic machinery obstacle detection[J]. Journal of Jiangsu University (Natural Science Edition), 2023, 44(4): 415-425. (in Chinese with English abstract) DOI: 10.3969/j.issn.1671-7775.2023.04.007
[8] ZHOU J, WANG X, ZHANG R, et al. Automatic navigation based on navigation map of agricultural Machine[C]//Computer and Computing Technologies in Agriculture VI. Berlin, Heidelberg, 2013: 304-311.
[9] LIU Pingzeng, BI Shusheng, ZANG Guansheng, et al. Obstacle avoidance system for agricultural robots based on multi-sensor information fusion[C]// Proceedings of 2011 International Conference on Computer Science and Network Technology. Harbin, China, 2011, 2: 1181-1185.
[10] AGUILAR W G, CASALIGLLA V P, PÓLIT J L. Obstacle avoidance based-visual navigation for micro aerial vehicles[J]. Electronics, 2017, 6(1): 6010010.
[11] 史扬杰,程馨慧,奚小波,等. 农业机械导航路径跟踪控制方法研究进展[J]. 农业工程学报,2023,39(15):1-14. DOI: 10.11975/j.issn.1002-6819.202304004 SHI Yangjie, CHENG Xinhui, XI Xiaobo, et al. Research progress on the path tracking control methods for agricultural machinery navigation[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2023, 39(15): 1-14. (in Chinese with English abstract) DOI: 10.11975/j.issn.1002-6819.202304004
[12] HE Y, ZHANG X, ZHANG Z, et al. Automated detection of boundary line in paddy field using MobileV2-UNet and RANSAC[J]. Computers and Electronics in Agriculture, 2022, 194: 106697. DOI: 10.1016/j.compag.2022.106697
[13] YIN X, WANG Y, CHEN Y, et al. Development of autonomous navigation controller for agricultural vehicles[J]. International Journal of Agricultural and Biological Engineering, 2020, 13(4): 70-76. DOI: 10.25165/j.ijabe.20201304.5470
[14] 曹倩,王库. 农田非结构特征视觉导航研究[J]. 农业机械学报,2009,40(S1):187-189,104. CAO Qian, WANG Ku, et, al. Vision navigation Based on agricultural non-structural characteristic[J]. Transactions of the Chinese Society for Agricultural Machinery, 2009, 40(S1): 187-189, 104. (in Chinese with English abstract)
[15] GAO X, Li J, FAN L, et al. Review of wheeled mobile robots’ navigation problems and application prospects in agriculture[J]. IEEE Access, 2018, 6: 49248-49268. DOI: 10.1109/ACCESS.2018.2868848
[16] WANG T, CHEN B, ZHANG Z, et al. Applications of machine vision in agricultural robot navigation: A review[J]. Computers and Electronics in Agriculture, 2022, 198: 107085. DOI: 10.1016/j.compag.2022.107085
[17] WANG Q, YANG C, WANG Y, et al. Application of low cost integrated navigation system in precision agriculture[J]. Intelligent Automation & Soft Computing, 2020, 26(4): 1433-1442.
[18] XIE D, XU Y, WANG R. Obstacle detection and tracking method for autonomous vehicle based on three-dimensional LiDAR[J]. International Journal of Advanced Robotic Systems, 2019, 16(2): 1729881419831587.
[19] YANG Y, HAN Y, LI S, et al. Vision based fruit recognition and positioning technology for harvesting robots[J]. Computers and Electronics in Agriculture, 2023, 213: 108258. DOI: 10.1016/j.compag.2023.108258
[20] 魏涛,韩经鲁,周雨辉,等. 基于机器学习的毫米波雷达车辆目标检测[J]. 客车技术与研究,2019,41(5):59-62. WEI Tao, HAN Jinglu, ZHOU Yuhui, et al. Vehicle target detection with millimeter-wave radar based on machine learning[J]. Bus & Coach Technology and Tesearch, 2019, 41(5): 59-62. (in Chinese with English abstract)
[21] 何勇,蒋浩,方慧,等. 车辆智能障碍物检测方法及其农业应用研究进展[J]. 农业工程学报,2018,34(9):21-32. DOI: 10.11975/j.issn.1002-6819.2018.09.003 HE Yong, JIANG Hao, FANG Hui, et, al. Research progress of intelligent obstacle detection methods of vehicles and their application on agriculture[J]. Transactions of the Chinese Society of Agricultural Engineering, 2018, 34(9): 21-32. (in Chinese with English abstract) DOI: 10.11975/j.issn.1002-6819.2018.09.003
[22] KORTHALS T, KRAGH M, CHRISTIANSEN P, et al. Multi-modal detection and mapping of static and dynamic obstacles in agriculture for process evaluation[J]. Frontiers in Robotics and AI, 2018, 5: 00028. DOI: 10.3389/frobt.2018.00028
[23] MOBUS R, KOLBE U. Multi-target multi-object tracking, sensor fusion of radar and infrared[C]//IEEE Intelligent Vehicles Symposium, University of Parma, Parma, Italy, 2004: 732-737.
[24] LAGHMARA H, BOUDALI M T, LAURAIN T, et al. Obstacle avoidance, path planning and control for autonomous vehicles[C]//IEEE intelligent vehicles symposium (IV),Paris, France, 2019: 529-534.
[25] HUANG W, HUO Y, YANG S, et al. Detection of Laodelphax striatellus (small brown planthopper) based on improved YOLOv5[J]. Computers and Electronics in Agriculture, 2023, 206: 107657.
[26] KANEKO N, YOSHIDA T, SUMI K. Fast Obstacle detection for monocular autonomous mobile robots[J]. SICE Journal of Control, Measurement, and System Integration, 2017, 10(5): 370-377. DOI: 10.9746/jcmsi.10.370
[27] Al-KAFF A, GARCÍA F, MARTÍN D, et al. Obstacle detection and avoidance system Based on monocular camera and size expansion algorithm for UAVs[J]. Sensors, 2017, 17(5): 1061-1082. DOI: 10.3390/s17051061
[28] 初梦苑,司永胜,李前,等. 家畜体尺自动测量技术研究进展[J]. 农业工程学报,2022,38(13):228-240. DOI: 10.11975/j.issn.1002-6819.2022.13.026 CHU Mengyuan, SI Yongsheng, LI Qian, et al. Research advances in the automatic measurement technology for livestock body size[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2022, 38(13): 228-240. (in Chinese with English abstract) DOI: 10.11975/j.issn.1002-6819.2022.13.026
[29] 薛金林,闫嘉,范博文. 多类农田障碍物卷积神经网络分类识别方法[J]. 农业机械学报,2018,49(增刊1):35-41. XUE Jinlin, YAN Jia, FAN Bowen, et, al. Classification and identification method of multiple kinds of farm obstacles based on convolutional neural network[J]. Transactions of the Chinese Society for Agricultural Machinery, 2018, 49(Supp.1): 35-41. (in Chinese with English abstract)
[30] 景亮,王瑞,刘慧,等. 基于双目相机与改进YOLOv3算法的果园行人检测与定位[J]. 农业机械学报,2020,51(9):34-39,25. DOI: 10.6041/j.issn.1000-1298.2020.09.004 JING Liang, WANG Rui, LIU Hui, et, al. Orchard pedestrian detection and location based on binocular camera and improved YOLOv3 Algorithm[J]. Transactions of the Chinese Society for Agricultural Machinery, 2020, 51(9): 34-39,25. (in Chinese with English abstract) DOI: 10.6041/j.issn.1000-1298.2020.09.004
[31] GHOLAMI F, KHANMIRZA E, RIAHI M. Real-time obstacle detection by stereo vision and ultrasonic data fusion[J]. Measurement, 2022, 190: 110718. DOI: 10.1016/j.measurement.2022.110718
[32] LI Y, LIDA M, SUYAMA T, et, al. Implementation of deep-learning algorithm for obstacle detection and collision avoidance for robotic harvester[J]. Computers and Electronics in Agriculture, 2020, 174: 105499. DOI: 10.1016/j.compag.2020.105499
[33] 陈斌,张漫,徐弘祯,等. 基于改进YOLO v3-tiny的全景图像农田障碍物检测[J]. 农业机械学报,2021,52(S1):58-65. CHEN Bin, ZHANG Man, XU Hongzhen, et, al. Farmland obstacle detection in panoramic image based on improved YOLO v3-tiny[J]. Transactions of the Chinese Society for Agricultural Machinery, 2021, 52(S1): 58-65. (in Chinese with English abstract)
[34] 张跃东,李丽,刘晓波,等. 基于单目视觉的无人机障碍探测算法研究[J]. 激光与红外,2009,39(6):673-676. ZHANG Yuedong, LI li, LIU Xiaobo, et, al. Obstacle detection for unmanned aerial vehicle based on monocular vision[J]. Laser and Infrared, 2009, 39(6): 673-676. (in Chinese with English abstract)
[35] 王天涛,赵永国,常发亮. 基于视觉传感器的障碍物检测[J]. 计算机工程与应用,2015,51(4):180-183. DOI: 10.3778/j.issn.1002-8331.1304-0239 WANG Tiantao, ZHAO Yongguo, CHANG Faliang. Obstacle detection based on vision sensor.[J]. Computer Engineering and Applications, 2015, 51(4): 180-183. (in Chinese with English abstract) DOI: 10.3778/j.issn.1002-8331.1304-0239
[36] HUANG Y, QIAN Y, WEI H, et al. A survey of deep learning-based object detection methods in crop counting[J]. Computers and Electronics in Agriculture, 2023, 215: 108425.
[37] ROY A M, BOSE R, BHADURI J. A fast accurate fine-grain object detection model based on YOLOv4 deep neural network[J]. Neural Computing and Applications, 2022, 34(5): 3895-3921. DOI: 10.1007/s00521-021-06651-x
[38] XUE J, CHENG F, Li Y, et al. Detection of farmland obstacles based on an Improved YOLOv5s algorithm by using CIoU and anchor box scale clustering[J]. Sensors, 2022, 22(5): 1790-1805. DOI: 10.3390/s22051790
[39] 韩永华,汪亚明,康锋,等. 基于小波多分辨率分解的农田障碍物检测[J]. 农业机械学报,2013,44(6):215-221. DOI: 10.6041/j.issn.1000-1298.2013.06.037 HAN Yonghua, WANG Yaming, KANG Feng, et al. Detection of obstacles in farmland based on wavelet multi-resolution transform[J]. Transactions of the Chinese Society for Agricultural Machinery, 2013, 44(6): 215-221. (in Chinese with English abstract) DOI: 10.6041/j.issn.1000-1298.2013.06.037
[40] 宋怀波,何东健,辛湘俊. 基于机器视觉的非结构化道路检测与障碍物识别方法[J]. 农业工程学报,2011,27(6):225-230. DOI: 10.3969/j.issn.1002-6819.2011.06.041 SONG Huaibo, HE Dongjian, XIN Xiangjun. Unstructured road detection and obstacle recognition algorithm based on machine vision[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2011, 27(6): 225-230. (in Chinese with English abstract) DOI: 10.3969/j.issn.1002-6819.2011.06.041
[41] DAIRI A, HARROU F, SENOUCI M, et al. Unsupervised obstacle detection in driving environments using deep-learning-based stereovision[J]. Robotics and Autonomous Systems, 2018, 100: 287-301. DOI: 10.1016/j.robot.2017.11.014
[42] 王新彦,易政洋. 基于改进YOLOv5的割草机器人工作环境障碍物检测方法研究[J]. 中国农机化学报,2023,44(3):171-176. WANG Xinyan, YI Zhengyang. Research on obstacle detection method of mowing robot working environment based on improved YOLOv5[J]. Journal of Chinese Agriculture Mechanization, 2023, 44(3): 171-176. (in Chinese with English abstract)
[43] REN S, HE K, GIRSHICK R, et al. Faster R-CNN: Towards real-time object detection with region proposal networks[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2016, 39(6): 1137-1149.
[44] JIANG P, ERGU D, LIU F, et al. A Review of YOLO algorithm developments[J]. Procedia Computer Science, 2022, 199: 1066-1073. DOI: 10.1016/j.procs.2022.01.135
[45] LIU W, ANGUELOV D, ERHAN D, et al. Ssd: Single shotmultibox detector[C]//Computer Vision–ECCV 2016: 14thEuropean Conference, Amsterdam, The Netherlands, October11–14, 2016, Proceedings, Part I 14. Springer InternationalPublishing, 2016: 21-37
[46] WANG D, LI Z, DU X, et al. Farmland obstacle detection from the perspective of uavs based on non-local deformable detr[J]. Agriculture, 2022, 12(12): 1983. DOI: 10.3390/agriculture12121983
[47] LI Y, LI M, QI J, et al. Detection of typical obstacles in orchards based on deep convolutional neural network[J]. Computers and Electronics in Agriculture, 2021, 181: 105932. DOI: 10.1016/j.compag.2020.105932
[48] 蔡舒平,孙仲鸣,刘慧,等. 基于改进型YOLOv4的果园障碍物实时检测方法[J]. 农业工程学报,2021,37(2):36-43. DOI: 10.11975/j.issn.1002-6819.2021.2.005 CAI Shuping, SUN Zhongming, LIU Hui, et al. Real-time detection methodology for obstacles in orchards using improved YOLOv4[J]. Transactions of the Chinese Society of Agricultural Engineering(Transactions of the CSAE), 2021, 37(2): 36-43. (in Chinese with English abstract) DOI: 10.11975/j.issn.1002-6819.2021.2.005
[49] 刘慧,沈跃,等. 基于改进SSD的果园行人实时检测方法[J]. 农业机械学报,2019,50(4):29-35,101. LIU Hui, ZHANG Lishuai, Shen Yue, et, al. Real-time pedestrian detection in orchard based on improved SSD[J]. Transactions of the Chinese Society for Agricultural Machinery, 2019, 50(4): 29-35, 101. (in Chinese with English abstract)
[50] 薛金林,李雨晴,曹梓建. 基于深度学习的模糊农田图像中障碍物检测技术[J]. 农业机械学报,2022,53(3):234-242. DOI: 10.6041/j.issn.1000-1298.2022.03.024 XUE Jinlin, LI Yuqing, CAO Zijian. Obstacle detection based on deep learning for blurred farmland images[J]. Transactions of the Chinese Society for Agricultural Machinery , 2022, 53(3): 234-242. (in Chinese with English abstract) DOI: 10.6041/j.issn.1000-1298.2022.03.024
[51] CHENG K, ZHU X, ZHAN Y, et al. Video deblurring and flow-guided feature aggregation for obstacle detection in agricultural videos[J]. International Journal of Multimedia Information Retrieval, 2022, 11(4): 577-588. DOI: 10.1007/s13735-022-00263-4
[52] He Z, Bao Y, Yu Q, et al. Dynamic path planning method for headland turning of unmanned agricultural vehicles[J]. Computers and Electronics in Agriculture, 2023, 206: 107699.
[53] 程嘉煜. 基于机器视觉的农业机器人运动障碍检测及避障策略研究[D]. 南京:南京农业大学,2014. CHENB Jiayu. Research on Moving Obstacle Detection and Avoidance Strategy for Agriculture Robot Based on Machine Vison[D]. Nanjing: Nanjing Agriculture University, 2014. (in Chinese with English abstract)
[54] 周俊,程嘉煜. 基于机器视觉的农业机器人运动障碍目标检测[J]. 农业机械学报,2011,42(8):154-158. ZHOU Jun, CHENG Jiayu. Moving obstacle detection based on machine vision for agricultural mobile robot[J]. Transactions of the Chinese Society for Agricultural Machinery, 2011, 42(8): 154-158. (in Chinese with English abstract)
[55] CAMPOS Y, SOSSA H, PAJARES G. Spatio-temporal analysis for obstacle detection in agricultural videos[J]. Applied Soft Computing, 2016, 45: 86-97. DOI: 10.1016/j.asoc.2016.03.016
[56] QIU Z, ZHAO N, ZHOU L, et al. Vision-based moving obstacle detection and tracking in paddy field using improved yolov3 and deep SORT[J]. Sensors, 2020, 20(15): 4082-4096. DOI: 10.3390/s20154082
[57] 王健,张振海,李科杰,等. 全景视觉系统发展与应用[J]. 计算机测量与控制,2014,22(6):1664-1666,1679. DOI: 10.3969/j.issn.1671-4598.2014.06.001 WANG Jian, ZHANG Zhenhai, LI Kejie, et al. Development and application of panoramic vision system[J]. Computer Measurement & Control, 2014, 22(6): 1664-1666,1679. (in Chinese with English abstract) DOI: 10.3969/j.issn.1671-4598.2014.06.001
[58] 曹文君,赵祚喜. Ladybug系列多目全景视觉技术的应用研究[J]. 机械与电子,2017,35(12):27-30. DOI: 10.3969/j.issn.1001-2257.2017.12.007 CAO Wenjun, ZHAO Zuoxi. Study on application of multi-view panoramic vision technology to Ladybug series[J]. Mechinety & Electronics, 2017, 35(12): 27-30. (in Chinese with English abstract) DOI: 10.3969/j.issn.1001-2257.2017.12.007
[59] YANG L, NOGUCHI N. Human detection for a robot tractor using omni-directional stereo vision[J]. Computers and Electronics in Agriculture, 2012, 89: 116-125. DOI: 10.1016/j.compag.2012.08.011
[60] XU H, LI S, JI Y, et al. Dynamic obstacle detection based on panoramic vision in the moving state of agricultural machineries[J]. Computers and Electronics in Agriculture, 2021, 184: 106104. DOI: 10.1016/j.compag.2021.106104
[61] WANG T, CHEN B, WANG N, et al. Zero‐shot obstacle detection using panoramic vision in farmland[J]. Journal of Field Robotics, 2024, 41(7): 2169-2183. DOI: 10.1002/rob.22224
[62] BALL D, UPCROFT B, WYETH G, et al. Vision‐based obstacle detection and navigation for an agricultural robot[J]. Journal of field robotics, 2016, 33(8): 1107-1130. DOI: 10.1002/rob.21644
[63] 万旭,徐海黎,阮有兵,等. 基于Intel Realsense深度摄像头的巡逻机器人避障导航方法[J]. 电视技术,2018,42(12):66-70,127. WAN Xu, XU Haili, RUAN Youbing, et al. Obstacle avoidance methods for patrol robot using RealSense camera[J]. Video Engineering, 2018, 42(12): 66-70,127. (in Chinese with English abstract)
[64] 钟深友. 基于RGB-D的自主移动机器人避障系统研究与实现[D]. 杭州:杭州电子科技大学,2022. ZHONG Shenyou. Obstacle avoidance for autonomous mobile robot using RGB-D camera[D]. Hangzhou: Hangzhou Dianzi University, 2022. (in Chinese with English abstract)
[65] NISSIMOV S, GOLDBERGER J, ALCHANATIS V. Obstacle detection in a greenhouse environment using the Kinect sensor[J]. Computers and Electronics in Agriculture, 2015, 113: 104-115. DOI: 10.1016/j.compag.2015.02.001
[66] 方东君,蒋林. 基于深度相机的室内障碍物检测算法[J]. 武汉科技大学学报,2022,45(3):213-222. DOI: 10.3969/j.issn.1674-3644.2022.03.008 FANG Dongjun, JIANG Lin. Indoor obstacle detection algorithm, based on depth camera[J]. Journal of Wuhan University of Science and Technology, 2022, 45(3): 213-222. (in Chinese with English abstract) DOI: 10.3969/j.issn.1674-3644.2022.03.008
[67] INOUE K, KAIZU Y, IGARASHIS, et al. The development of autonomous navigation and obstacle avoidance for a robotic mower using machine vision technique[J]. IFAC(International Federation of Automatic Control)-PapersOnLine, 2019, 52(30): 173-177. DOI: 10.1016/j.ifacol.2019.12.517
[68] WANG D, LI W, LIU X, et al. UAV environmental perception and autonomous obstacle avoidance: A deep learning and depth camera combined solution[J]. Computers and Electronics in Agriculture, 2020, 175: 105523. DOI: 10.1016/j.compag.2020.105523
[69] SKOCZEŃ M, OCHMAN M, SPYRA K, et al. Obstacle detection system for agricultural mobile robot application using RGB-D cameras[J]. Sensors, 2021, 21(16): 5292-5308. DOI: 10.3390/s21165292
[70] Zhang R, Lian S, Li L, et al. Design and experiment of a binocular vision-based canopy volume extraction system for precision pesticide application by UAVs[J]. Computers and Electronics in Agriculture, 2023, 213: 108197.
[71] 马耀锋,李红丽. 基于双目视觉的农业机器人运动定位与避障研究[J]. 农机化研究,2020,42(9):228-232. DOI: 10.3969/j.issn.1003-188X.2020.09.040 MAYaofeng, LI Hongli. Research on motion location and obstacle avoidance of agricultural robot based on binocular vision[J]. Journal of Agricultural Mechanization Research, 2020, 42(9): 228-232. (in Chinese with English abstract) DOI: 10.3969/j.issn.1003-188X.2020.09.040
[72] CAO L, WANG C, LI J. Robust depth-based object tracking from a moving binocular camera[J]. Signal Processing, 2015, 112: 154-161. DOI: 10.1016/j.sigpro.2014.08.041
[73] Hu G, Chen C, Chen J, et al. Simplified 4-DOF manipulator for rapid robotic apple harvesting[J]. Computers and electronics in agriculture, 2022, 199: 107177.
[74] SUN Y, ZHANG L, LENG J, et al. An obstacle detection method based on binocular stereovision[C]// Springer International Publishing, 2018: 571-580.
[75] TANG Y, ZHOU H, WANG H, et al. Fruit detection and positioning technology for a camellia oleifera C. Abel orchard based on improved YOLOv4-tiny model and binocular stereo vision[J]. Expert Systems with Applications, 2023, 211: 118573. DOI: 10.1016/j.eswa.2022.118573
[76] 姬长英,沈子尧,顾宝兴,等. 基于点云图的农业导航中障碍物检测方法[J]. 农业工程学报,2015,31(7):173-179. JI Changying, SHEN Ziyao, GU Baoxing, et, al. Obstacle detection based on point clouds in application of agricultural navigation[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2015, 31(7): 173-179. (in Chinese with English abstract).
[77] 丁幼春,王书茂,陈红. 农用车辆作业环境障碍物检测方法[J]. 农业机械学报,2009,40(S1):23-27,17. DING Youchun, WANG Shumao, CHEN Hong. Obstacle detection in the working area of agricultural vehicle based on machine vision[J]. Transactions of the Chinese Society for Agricultural Machinery, 2009, 40(S1): 23-27,17. (in Chinese with English abstract)
[78] 苟琴,耿楠,张志毅. 基于视差图的未知环境下农田障碍物检测方法[J]. 计算机工程与设计,2013,34(2):707-710. DOI: 10.3969/j.issn.1000-7024.2013.02.061 GOU Qin, GENG Nan, ZHANG Zhiyi. Obstacle detection for farmland in unknown environment based on disparity image[J]. Computer Engineering And Design, 2013, 34(2): 707-710. (in Chinese with English abstract) DOI: 10.3969/j.issn.1000-7024.2013.02.061
[79] 陈成坤,陈军. 基于双目视觉的果园障碍物检测与定位[J]. 农机化研究,2023,45(4):196-201. DOI: 10.3969/j.issn.1003-188X.2023.04.032 CHEN Chengkun, CHEN Jun. Orchard obstacle detection and location based on binocular vision[J]. Journal of Agricultural Mechanization Research, 2023, 45(4): 196-201. (in Chinese with English abstract) DOI: 10.3969/j.issn.1003-188X.2023.04.032
[80] 魏建胜,潘树国,田光兆,等. 农业车辆双目视觉障碍物感知系统设计与试验[J]. 农业工程学报,2021,37(9):55-63. DOI: 10.11975/j.issn.1002-6819.2021.09.007 WEI Jiansheng, PAN Shuguo, TIAN Guangzhao, et al. Design and experiments of the binocular visual obstacle perception system for agricultural vehicles[J]. Transactions of the Chinese Society of Agricultural Engineering, 2021, 37(9): 55-63. (in Chinese with English abstract) DOI: 10.11975/j.issn.1002-6819.2021.09.007
[81] MAKSYMOVA I, STEGER C, DRUML N. Review of LiDAR sensor data acquisition and compression for automotive applications[J]. Proceedings, 2018, 2(13): 852.
[82] SHANG E, AN X, WU T, et al. Lidar based negative obstacle detection for field autonomous land vehicles[J]. Journal of Field Robotics, 2016, 33(5): 591-617. DOI: 10.1002/rob.21609
[83] Westling F, Mahmud K, Underwood J, et al. Replacing traditional light measurement with LiDAR based methods in orchards[J]. Computers and Electronics in Agriculture, 2020, 179: 105798.
[84] PENG Y, QU D, ZHONG Y, et al. The obstacle detection and obstacle avoidance algorithm based on 2-d lidar[C]//IEEE international conference on information and automation, Lijiang, China, 2015: 1648-1653.
[85] MADHAVAN T R, ADHARSH M. Obstacle detection and obstacle avoidance algorithm based on 2-D RPLiDAR[C]//IEEE International Conference on Computer Communication and Informatics (ICCCI), Coimbatore, India, 2019: 1-4.
[86] GAO M, TANG J, YANG Y, et al. An obstacle detection and avoidance system for mobile robot with a laser radar[C]//IEEE International Conference on Networking, Sensing and Control (ICNSC), Banff, Alberta, Canada, 2019: 63-68.
[87] 吴越,蓝伟,许大浦,等. 一种基于单线激光雷达的无人车辆导航避障系统设计[J]. 计算机测量与控制,2013,21(7):1902-1904,1907. DOI: 10.3969/j.issn.1671-4598.2013.07.055 WU Yue, LAN Wei, XU Dafu, et al. Design of an obstacle avoidance system for navigation of unmanned vehicles with single-line laser radar[J]. Computer Measurement, 2013, 21(7): 1902-1904, 1907. (in Chinese with English abstract) DOI: 10.3969/j.issn.1671-4598.2013.07.055
[88] 张莹莹. 基于激光雷达的农业移动机器人果树树干检测和导航研究[D]. 南京:南京农业大学,2017. ZHANG Yingying. Research on Agriculture Mobile Robot Tree Trunk Detection and Navigation in Orchard Based on Laser Radar[D]. Nanjing: Nanjing Agriculture University, 2017 . (in Chinese with English abstract)
[89] 张向阳. 果园移动机器人导航与避障方法研究[D]. 合肥:中国科学技术大学,2020. ZHANG Xiangyang. Research on Navigation and Obstacle Avoidance Method for Orchard Mobile Robots[D]. Hefei: University of Science and Technology of China, 2020. (in Chinese with English abstract)
[90] SHANG Y, WANG H, QIN W, et al. Design and test of obstacle detection and harvester pre-collision system based on 2D lidar[J]. Agronomy, 2023, 13(2): 388. DOI: 10.3390/agronomy13020388
[91] 季宇寒,徐弘祯,张漫,等. 基于激光雷达的农田环境点云采集系统设计[J]. 农业机械学报,2019,50(S1):1-7. JI Yuhan, XU hongzhen, ZHANG Man, et al. Design of point cloud acquisition system for farmland environment based on LiDAR[J]. Transactions of the Chinese Society for Agricultural Machinery, 2019, 50(S1): 1-7. (in Chinese with English abstract)
[92] JI Y H, LI S C, PENG C, et al. Obstacle detection and recognition in farmland based on fusion point cloud data[J]. Computers and Electronics in Agriculture, 2021, 189: 106409. DOI: 10.1016/j.compag.2021.106409
[93] SHANG E, AN X, LI J, et al. A novel setup method of 3D LIDAR for negative obstacle detection in field environment[C]//IEEE Conference on Intelligent Transportation Systems (ITSC), Qingdao, China, 2014: 1436-1441.
[94] 尚业华,张光强,孟志军,等. 基于欧氏聚类的三维激光点云田间障碍物检测方法[J]. 农业机械学报,2022,53(1):23-32. DOI: 10.6041/j.issn.1000-1298.2022.01.003 SHANG Yehua, ZHANG GuangQiang, MENG Zhijun, et al. Field obstacle detection method of 3D LiDAR point cloud based on euclidean clustering[J]. Transactions of the Chinese Society for Agricultural Machinery, 2022, 53(1): 23-32. (in Chinese with English abstract) DOI: 10.6041/j.issn.1000-1298.2022.01.003
[95] QIN J, SUN R, ZHOU K, et al. Lidar-based 3D obstacle detection using focal voxel R-CNN for farmland environment[J]. Agronomy, 2023, 13(3): 650. DOI: 10.3390/agronomy13030650
[96] WANG T, WANG N, XIAO J, et al. One-shot domain adaptive real-time 3D obstacle detection in farmland based on semantic-geometry-intensity fusion strategy[J]. Computers and Electronics in Agriculture, 2023, 214: 108264. DOI: 10.1016/j.compag.2023.108264
[97] CORTÉS I, BELTRÁN J, DE LA ESCALERA A, et al. Dali: Domain adaptation in lidar point clouds for 3d obstacle detection[C]//IEEE International Conference on Intelligent Transportation Systems (ITSC), Macau, China, 2022: 3837-3842.
[98] ZHONG Q, LIU Y, GUO X, et al. Dynamic obstacle detection and tracking based on 3D lidar[J]. Journal of Advanced Computational Intelligence and Intelligent Informatics, 2018, 22(5): 602-610. DOI: 10.20965/jaciii.2018.p0602
[99] JI Y H, PENG C, LI S C, et al. Multiple object tracking in farmland based on fusion point cloud data[J]. Computers and Electronics in Agriculture, 2022, 200: 107259. DOI: 10.1016/j.compag.2022.107259
[100] JIANG W, CHEN W, SONG C, et al. Obstacle detection and tracking for intelligent agricultural machinery[J]. Computers and Electrical Engineering, 2023, 108: 108670. DOI: 10.1016/j.compeleceng.2023.108670
[101] 娄新雨,王海,蔡英凤,等. 采用64线激光雷达的实时道路障碍物检测与分类算法的研究[J]. 汽车工程,2019,41(7):779-784. LOU Xinyu, WANG Hai, CAI Yingfeng, et al. A research on an algorithm for real-time detection and classification of road obstacle by using 64-line lidar[J]. Automotive Engineering, 2019, 41(7): 779-784. (in Chinese with English abstract)
[102] 牛国臣,王月阳,田一博. 改进密度聚类的激光雷达障碍物检测方法[J]. 北京航空航天大学学报,2023,49(10):2608-2616. NIU Guocheng, WANG Yueyang, CAI Yibo, et al. LiDAR obstacle detection based on improved density clustering[J]. Journal of Beijing University of Aeronautics and Astronautics, 2023, 49(10): 2608-2616. (in Chinese with English abstract)
[103] 王涛,曾文浩,于琪. 基于激光雷达的无人驾驶障碍物检测和跟踪[J]. 西南交通大学学报,2021,56(6):1346-1354. WANG Tao, ZENG Wenhao, YU Qi. Obstacle detection and tracking for driverless cars based on lidar[J]. Journal of Southwest Jiaotong University, 2021, 56(6): 1346-1354. (in Chinese with English abstract)
[104] Bai J, Zheng L, Li S, et al. Radar transformer: An object classification network based on 4D MMW imaging radar[J]. Sensors, 2021, 21(11): 3854.
[105] HUANG J T, LU C L, CHANG P K, et al. Cross-modal contrastive learning of representations for navigation using lightweight, low-cost millimeter wave radar for adverse environmental conditions[J]. IEEE Robotics and Automation Letters, 2021, 6(2): 3333-3340. DOI: 10.1109/LRA.2021.3062011
[106] Abdu F J, Zhang Y, Fu M, et al. Application of deep learning on millimeter-wave radar signals: A review[J]. Sensors, 2021, 21(6): 1951.
[107] 薛金林,程峰,汪冰清,等. 基于无效目标滤除的毫米波雷达农田障碍物检测方法[J]. 农业机械学报,2023,54(4):233-240. DOI: 10.6041/j.issn.1000-1298.2023.04.023 XUE Jinlin, CHENG Feng, WANG Bingqing, et al. A method for millimeter wave radar farm obstacle detection based on invalid target filtering[J]. Transactions of the Chinese Society for Agricultural Machinery, 2023, 54(4): 233-240. (in Chinese with English abstract) DOI: 10.6041/j.issn.1000-1298.2023.04.023
[108] 谭政. 毫米波雷达在植保无人机避障中的应用[D]. 阜阳:阜阳师范大学,2021. TAN Zheng. Application of Millimeter Wave in Obstacle Avoidance of Plant Protection UAV[D]. Fuyang: Fuyang Normal University, 2021. (in Chinese with English abstract)
[109] 孙柯,吴开华,王亚涛,等. 基于毫米波雷达的植保无人机避障系统研究[J]. 传感器与微系统,2020,39(6):73-76. SUN Ke, WU Kaihua, WANG Yatao, et al. Research on obstacle avoidance system of plant protection UAV based on millimeter wave radar[J]. Transducer and Microsystem Technologies, 2020, 39(6): 73-76. (in Chinese with English abstract)
[110] SONG S, WU J, ZHANG S, et al. Research on target tracking algorithm using millimeter-wave radar on curved road[J]. Mathematical Problems in Engineering, 2020, 2020: 3749759.
[111] WANG T, ZHENG N, XIN J, et al. Integrating millimeter wave radar with a monocular vision sensor for on-road obstacle detection applications[J]. Sensors, 2011, 11(9): 8992-9008. DOI: 10.3390/s110908992
[112] PARK J, JE Y, LEE H, et al. Design of an ultrasonic sensor for measuring distance and detecting obstacles[J]. Ultrasonics, 2010, 50(3): 340-346. DOI: 10.1016/j.ultras.2009.10.013
[113] YASIN J N, Mohamed S A S, Haghbayan M H, et al. Low-cost ultrasonic based object detection and collision avoidance method for autonomous robots[J]. International Journal of Information Technology, 2021, 13: 97-107. DOI: 10.1007/s41870-020-00513-w
[114] 石彪,倪文志,刘利枚. 农业机器人中超声波测距的不确定性研究[J]. 农机化研究,2010,32(12):19-22. DOI: 10.3969/j.issn.1003-188X.2010.12.005 SHI Biao, NI Wenzhi, LIU Limu. Discussion of regional realization patterns of rice llanting mechanization in china[J]. Journal of Agricultural Mechanization Research, 2010, 32(12): 19-22. (in Chinese with English abstract) DOI: 10.3969/j.issn.1003-188X.2010.12.005
[115] 贾闯,李加念,洪添胜,等. 山地果园单轨运输机超声波避障系统的设计与试验[J]. 农业工程学报,2015,31(增刊2):69-74. JIA Chuang, LI Jianian, HONG Tiansheng, et, al. Design and test of ultrasonic obstacle avoidance system for mountain orchard monorail conveyor[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2015, 31(Supp.2): 69-74. (in Chinese with English abstract)
[116] GIBBS G, JIA H, MADANI I. Obstacle detection with ultrasonic sensors and signal analysis metrics[J]. Transportation Research Procedia, 2017, 28: 173-182. DOI: 10.1016/j.trpro.2017.12.183
[117] DE M C, RIVERA Z B, GUIDA D. Obstacle avoidance system for unmanned ground vehicles by using ultrasonic sensors[J]. Machines, 2018, 6(2): 6020018.
[118] HU J, ZHENG B, WANG C, et al. A survey on multi-sensor fusion based obstacle detection for intelligent ground vehicles in off-road environments[J]. Frontiers of Information Technology & Electronic Engineering, 2020, 21(5): 675-692.
[119] CHEN C S, LIN C J, LAI C C, et al. Velocity estimation and cost map generation for dynamic obstacle avoidance of ROS based AMR[J]. Machines, 2022, 10(7): 10070501.
[120] RÖVID A, REMELI V, SZALAY Z. Raw fusion of camera and sparse LiDAR for detecting distant objects[J]. at-Automatisierungstechnik, 2020, 68(5): 337-346. DOI: 10.1515/auto-2019-0086
[121] 耿乾,毛鹏军,李鹏举,等. 障碍物分类识别的果园机器人避障方法研究[J]. 中国农机化学报,2020,41(8):170-177. GENG Qian, MAO Pengjun, LI Pengju, et al. Research on obstacle avoidance method of orchard robot based obstacle classification[J]. Journal of Chinese Agricultural Mechanization, 2020, 41(8): 170-177. (in Chinese with English abstract)
[122] KUMAR G A, LEE J H, HWANG J, et al. LiDAR and camera fusion approach for object distance estimation in self-driving vehicles[J]. Symmetry, 2020, 12(2): 12020324.
[123] 汪佩,郭剑辉,李伦波,等. 基于单线激光雷达与视觉融合的负障碍检测算法[J]. 计算机工程,2017,43(7):303-308. DOI: 10.3969/j.issn.1000-3428.2017.07.051 WANG Pei, GUO Jianhui, LI Lunbo, et al. Negative obstacle detection algorithm based on single line laser radar and vision fusion[J]. Computer Engineering, 2017, 43(7): 303-308. (in Chinese with English abstract) DOI: 10.3969/j.issn.1000-3428.2017.07.051
[124] 肖宇峰,黄鹤,郑杰,等. Kinect与二维激光雷达结合的机器人障碍检测[J]. 电子科技大学学报,2018,47(3):337-342. DOI: 10.3969/j.issn.1001-0548.2018.03.003 XIAO Yufeng, HUANG He, ZHENG Jie, et al. Obstacle detection for robot based on kinect and 2D lidar[J]. Journal of University of Electronic Science and Technology of China, 2018, 47(3): 337-342. (in Chinese with English abstract) DOI: 10.3969/j.issn.1001-0548.2018.03.003
[125] KRAGH M, UNDERWOOD J. Multimodal obstacle detection in unstructured environments with conditional random fields[J]. Journal of Field Robotics, 2020, 37(1): 53-72. DOI: 10.1002/rob.21866
[126] 薛金林,董淑娴,范博文. 基于信息融合的农业自主车辆障碍物检测方法[J]. 农业机械学报,2018,49(S1):29-34. XUE Jinlin, DONG ShuXian, FAN Bowen. Detection of obstacles based on information fusion for autonomous agricultural vehicles[J]. Transactions of the Chinese Society for Agricultural Machinery, 2018, 49(S1): 29-34. (in Chinese with English abstract)
[127] 李凡. 基于三维点云和RGB图像的农田障碍物识别方法与试验研究[D]. 淄博:山东理工大学,2023. LI Fan. Application of Millimeter Wave in Obstacle Avoidance of Plant Protection UAV[D]. Zibo: Shandong University of Technology, 2023. (in Chinese with English abstract)
[128] 方旭. 基于多传感器融合的果园植保机械导航系统研究[D]. 合肥:安徽农业大学,2023. FANG Xu. Research on Navigation System for Orchard Crop Protection Machinery Based on Muli-Sensor Fusion[D]. Hefei: Anhui Agriculture University, 2023. (in Chinese with English abstract)
[129] GATESICHAPAKORN S, TAKAMATSU J, RUCHANURUCKS M. ROS based autonomous mobile robot navigation using 2D LiDAR and RGB-D camera[C]//IEEE First International Symposium on Instrumentation, Control, Artificial Intelligence, and Robotics (ICA-SYMP), 2019: 151-154.
[130] 袁红斌,曹会群,欧群雍. 基于激光测距雷达和机器视觉的障碍物检测[J]. 现代雷达,2021,43(5):57-62. YUAN Hongbin, CAO Huiqun, OU Qunyong. Obstacle detection based on lidar and machine vision[J]. Modern Radar, 2021, 43(5): 57-62. (in Chinese with English abstract)
[131] ZEWGE N S, KIM Y, KIM J, et al. Millimeter-wave radar and RGB-D camera sensor fusion for real-time people detection and tracking[C]//IEEE 7th International Conference on Robot Intelligence Technology and Applications (RiTA), Daejeon, Korea (South), 2019: 93-98.
[132] HUANG X, DONG X, MA J, et al. The improved A* obstacle avoidance algorithm for the plant protection UAV with millimeter wave radar and monocular camera data fusion[J]. Remote Sensing, 2021, 13(17): 13173364.
[133] 张岩,潘胜权,解印山,等. 相机与毫米波雷达融合检测农机前方田埂[J]. 农业工程学报,2021,37(15):169-178. DOI: 10.11975/j.issn.1002-6819.2021.15.021 ZHANG Yan, PAN Shengquan, XIE Yinshan, et al. Detection of ridge in front of agricultural machinery by fusion of camera and millimeter wave radar[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2021, 37(15): 169-178. (in Chinese with English abstract) DOI: 10.11975/j.issn.1002-6819.2021.15.021
[134] KATO T, NINOMIYA Y, MASAKI I. An obstacle detection method by fusion of radar and motion stereo[J]. IEEE transactions on intelligent transportation systems, 2002, 3(3): 182-188. DOI: 10.1109/TITS.2002.802932
[135] 尚昊,孙立博,秦文虎. 基于红外相机和毫米波雷达融合的夜间行人检测[J]. 传感技术学报,2021,34(9):1137-1145. DOI: 10.3969/j.issn.1004-1699.2021.09.001 SHANG Hao, SUN Libo, QIN Wenhu. Pedestrian detection at night based on the fusion of infrared camera and millimeter-wave radar[J]. Chinese Journal of sensors and actuators, 2021, 34(9): 1137-1145. (in Chinese with English abstract) DOI: 10.3969/j.issn.1004-1699.2021.09.001
[136] 程蕾. 基于毫米波雷达和机器视觉的夜间前方车辆检测研究[D]. 长春:吉林大学,2016. CHENG Lei. Study on Preceding Vehicle Detection at Night Based on Millimeter-wave Radar-vision[D]. Changchun: Jilin University, 2016. (in Chinese with English abstract)
[137] CHANG S, ZHANG Y, ZHANG F, et al. Spatial attention fusion for obstacle detection using mmwave radar and vision sensor[J]. Sensors, 2020, 20(4): 956-976. DOI: 10.3390/s20040956
[138] LIU X, CAI Z. Advanced obstacles detection and tracking by fusing millimeter wave radar and image sensor data[C]// IEEE, International Conference on Control, Automation and Systems, KINTEX, Gyeonggi-do, Korea, 2010: 1115-1120.
[139] LV P, WANG B, CHENG F, et al. Multi-objective association detection of farmland obstacles based on information fusion of millimeter wave radar and camera[J]. Sensors, 2022, 23(1): 230-247. DOI: 10.3390/s23010230
[140] 刘立臣. 基于毫米波雷达和视觉的旋翼植保无人机自主避障研究[D]. 哈尔滨. 东北林业大学,2020. LIU Lichen. Research on Autonomous Obstacle Avoidance of Rotor Plant Protection UAV Based on Millimeter-wave Radar and Vision[D]. Haerbin: Northeast Forestry University, 2020. (in Chinese with English abstract)
[141] 王晓斌. 多传感器融合的植保无人机障碍物识别方法研究[D]. 沈阳:沈阳工业大学,2023. WANG Xiaobin. Research on Obstacle Recognition Scheme of Plant Protection UAV Based on Muli-sensor Fusion[D]. Shenyang: Shenyang University of Technology, 2023. (in Chinese with English abstract)
[142] MOCANU B, TAPU R, ZAHARIA T. When ultrasonic sensors and computer vision join forces for efficient obstacle detection and recognition[J]. Sensors, 2016, 16(11): 1807-1829. DOI: 10.3390/s16111807
[143] MOBUS R, KOLBE U. Multi-target multi-object tracking, sensor fusion of radar and infrared[C]//IEEE Intelligent Vehicles Symposium,Parma, Italy, 2004: 732-737.
[144] BOVCON B, PERŠ J, KRISTAN M. Stereo obstacle detection for unmanned surface vehicles by IMU-assisted semantic segmentation[J]. Robotics and Autonomous Systems, 2018, 104: 1-13. DOI: 10.1016/j.robot.2018.02.017
[145] BENET B, ROUSSEAU V, LENAIN R. Fusion between a color camera and a TOF camera to improve traversability of agricultural vehicles[C]//The 6th International Workshop Applications of Computer Image Analysis and Spectroscopy in Agriculture, Aarhus, Denmark, 2016: 1-7
[146] LIU M C, CHEN J, ZHAO X, et al. Dynamic obstacle detection based on multi-sensor information fusion[J]. IFAC(International Federation of Automatic Control)-PapersOnLine, 2018, 51(17): 861-865. DOI: 10.1016/j.ifacol.2018.08.086
[147] CHEN X, ZHANG B, LUO L. Multi-feature fusion tree trunk detection and orchard mobile robot localization using camera/ultrasonic sensors[J]. Computers and Electronics in Agriculture, 2018, 147: 91-108. DOI: 10.1016/j.compag.2018.02.009
[148] JEON C W, KIM H J, YUN C, et al. An entry-exit path planner for an autonomous tractor in a paddy field[J]. Computers and Electronics in Agriculture, 2021, 191: 106548. DOI: 10.1016/j.compag.2021.106548
[149] CHEN H, XIE H, SUN L, et al. Research on tractor optimal obstacle avoidance path planning for improving navigation accuracy and avoiding land waste[J]. Agriculture, 2023, 13(5): 934. DOI: 10.3390/agriculture13050934
[150] ZHAO X, WANG K, WU S, et al. An obstacle avoidance path planner for an autonomous tractor using the minimum snap algorithm[J]. Computers and Electronics in Agriculture, 2023, 207: 107738. DOI: 10.1016/j.compag.2023.107738
[151] 杨洋,温兴,马强龙,等. 基于贝塞尔曲线的动态识别区农机避障路径实时规划[J]. 农业工程学报,2022,38(6):34-43. DOI: 10.11975/j.issn.1002-6819.2022.06.004 YANG Yang, WEN Xing, Ma Longqiang, et al. Real time planning of the obstacle avoidance path of agricultural machinery in dynamic recognition areas based on Bezier curve[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2022, 38(6): 34-43. (in Chinese with English abstract) DOI: 10.11975/j.issn.1002-6819.2022.06.004
[152] 张梦娇. 基于双目视觉技术的果园割草机避障系统设计[D]. 保定:河北农业大学,2020. ZHANG Mengjiao. Design of Obstacle Avoidance System of Orchard Lawn Mower Based on Binocular Vision Technology[D]. Baoding: Hebei Agriculture University, 2020. (in Chinese with English abstract)
[153] 姜龙腾,迟瑞娟,熊泽鑫,等. 基于优化人工势场法的插秧机绕障策略研究[J]. 农业机械学报,2022,53(S1):20-27. JIANG Longteng, CHI Ruijuan, XIONG Zexin, et al. Obstacle winding strategy of rice transplanter based on optimized artificial potential field method[J]. Transactions of the Chinese Society for Agricultural Machinery (Transactions of the CSAE), 2022, 53(S1): 20-27. (in Chinese with English abstract)
[154] MORI T, SCHERER S. First results in detecting and avoiding frontal obstacles from a monocular camera for micro unmanned aerial vehicles[C]//2013 IEEE International Conference on Robotics and Automation. Karlsruhe, Germany, 2013: 1750-1757.
[155] 杨娟娟. 基于深度学习的农用无人机避障系统研究[D]. 兰州:甘肃农业大学,2020. YANG Juanjuan. Study on Obstacle Avoidance System of Agriculture UAV Based on Deep Learning[D]. Lanzhou: Gansu Agriculture University, 2020. (in Chinese with English abstract)
[156] WANG L, LAN Y, Zhang Y, et al. Applications and prospects of agricultural unmanned aerial vehicle obstacle avoidance technology in China[J]. Sensors, 2019, 19(3): 19030642.
[157] HUANG X, DONG X, MA J, et al. The improved A* obstacle avoidance algorithm for the plant protection UAV with millimeter wave radar and monocular camera data fusion[J]. Remote Sensing, 2021, 13(17): 3364. DOI: 10.3390/rs13173364