基于SRF-YOLO轻量化检测模型与多臂机器人系统集成的设施番茄智能化收获技术研究

时间:2026年3月26日
来源:Smart Agricultural Technology

编辑推荐:

为解决设施果园环境中番茄机械化采摘面临的背景复杂、果实姿态多变、枝叶遮挡导致的误检漏检问题,本研究提出了一种轻量化目标检测模型SRF-YOLO及其集成的多臂并行采摘-输送-收集机器人系统。该研究设计了C2PSA-SHSA模块以降低计算复杂度并增强对小目标与遮挡番茄的感知,引入C3k2-RSCM模块加强多尺度特征融合以抑制背景干扰,并提出F-CIoU损失函数动态调整难易样本权重以加速模型收敛。实验表明,模型在番茄数据集上实现了92.4%的识别精度和93.2%的mAP@0.5,并在真实温室环境中部署验证,最终机器人系统采摘成功率达90.86%,平均速度为10.86个/分钟,为设施农业智能采摘提供了可行的技术方案。

广告
   X   

想象一下,在温暖湿润的温室里,一串串红彤彤的番茄挂满枝头,等待着被采摘。然而,对于农场主而言,依赖人工采摘不仅成本高昂、效率低下,还难以应对日益扩大的种植规模。更棘手的是,温室环境本身就像一个“视觉迷宫”:多变的自然光照让番茄颜色时明时暗,茂密的枝叶和果实间相互重叠、遮挡,使得传统自动化识别方法常常“看走眼”,误将枝叶当作果实,或者干脆漏掉了藏在深处的番茄。这些“看不清、认不准”的问题,直接导致采摘机器人成功率低,严重制约了现代农业智能化升级的步伐。传统的图像处理方法,比如依靠颜色和形状特征,在复杂光照和遮挡下显得力不从心;而一些高精度的深度学习模型又因计算量大、成本高,难以在需要实时响应的采摘机器人上“安家落户”。那么,能否设计一个既“眼尖”看得清遮挡和小目标,又“腿快”算得省,还能真正装到机器人上干活的智能检测系统呢?这正是发表在《Smart Agricultural Technology》上的这项研究试图回答的核心问题。
为了攻克这些难题,研究团队开展了一项名为“SRF-YOLO: 一种用于设施番茄收获的轻量化检测模型及机器人系统集成”的研究。他们并没有从零开始造轮子,而是以当前先进的单阶段目标检测算法YOLOv11n为基础模型进行改造升级。研究的主要技术路径围绕模型结构优化、特征融合增强和损失函数设计三个核心展开。首先,针对小目标和遮挡问题,他们设计了C2PSA-SHSA模块,通过引入单头自注意力(Single-Head Self-Attention, SHSA)机制,在降低计算量和内存开销的同时,提升模型对关键区域的感知能力。其次,为了应对温室中背景干扰(如过曝、欠曝)和运动模糊,他们在网络颈部设计了C3k2-RSCM模块,该模块集成了矩形空间自校准机制(Rectangular Self-Calibration Mechanism, RSCM),能更好地捕获全局上下文信息并聚焦于前景目标,从而提升在复杂环境中的识别精度。最后,他们改进了边界框回归的优化目标,提出了F-CIoU损失函数,通过对不同难易程度的回归样本动态调整关注权重,加速模型收敛并提升定位精度。除了算法创新,研究还设计与搭建了一套多臂并行采摘-输送-收集一体化机器人系统原型,并将优化后的SRF-YOLO模型部署到该系统基于ROS框架的边缘计算单元(Jetson Xavier NX)上,实现了从视觉识别到机械臂协调操作的全程自动化闭环。研究使用的番茄图像数据集共1000张,来源于Kaggle公共数据集以及作者在江苏省昆山市陆家镇A+温室工厂实地采集的图像,涵盖了复杂背景、果实遮挡、枝叶遮挡等多种典型场景。
研究结果
  • 改进模型性能卓越
    实验结果表明,最终构建的SRF-YOLO模型在番茄测试数据集上达到了92.4%的识别精度(Precision)和93.2%的平均精度均值(mAP@0.5),相较于基线模型YOLOv11n分别提升了4.7%和0.9%。同时,模型保持了轻量化特性,参数量(Params)仅为2.56M,计算量(GFLOPs)为6.5G,在推理速度(FPS)上达到78帧/秒,满足了实时检测的要求。训练过程中的损失函数曲线也显示,SRF-YOLO比基线模型收敛更快、更彻底,验证了其改进的有效性。
  • 消融实验验证模块有效性
    通过系统的消融实验,研究逐步验证了三个改进模块的贡献。单独使用C2PSA-SHSA模块(实验A)在显著提升推理速度(FPS从67提升至83)的同时,保持了较高的检测精度。在此基础上加入C3k2-RSCM模块(实验A+B)后,模型精度得到进一步提升。最终引入F-CIoU损失函数(实验A+B+C,即SRF-YOLO)使得精度和mAP达到最高水平。这证明了三项改进在提升模型综合性能方面具有协同效应。
  • 损失函数对比凸显优势
    研究人员还将提出的F-CIoU损失函数与CIoU、DIoU、EIoU、SIoU等其他主流边界框损失函数进行了对比。结果显示,F-CIoU在综合性能上表现最优,其mAP@0.5达到93.7%,高于其他对比函数,同时在推理速度上也保持了良好水平,说明其在处理番茄这种可能存在密集、遮挡情况的目标时具有优势。
  • 机器人系统实地测试成功
    研究将SRF-YOLO模型部署到自主研发的多臂机器人系统上进行原型测试。该机器人采用三组笛卡尔坐标机械臂并行作业,并设计了倾斜伸缩的采摘策略以适应番茄自然生长状态。集成深度视觉和基于ROS的控制系统后,机器人在真实温室环境中实现了从识别、定位到抓取的全流程自动化作业。测试结果表明,该系统采摘成功率达到90.86%,平均采摘速度为10.86个果实/分钟,展现了良好的鲁棒性、实时性和工程实用性。
研究结论与意义
本研究成功提出并验证了一种专用于设施番茄收获的轻量化目标检测模型SRF-YOLO,并开发了配套的多臂并行采摘-输送-收集一体化机器人系统。SRF-YOLO模型通过结构创新,在精度、速度和轻量化之间取得了良好平衡,显著提升了在复杂温室环境下对番茄,特别是被遮挡和小尺寸番茄的检测能力。更为重要的是,研究完成了从算法创新到系统集成、再到实地部署验证的完整闭环,证明了SRF-YOLO模型与机器人系统在真实农业生产场景中的有效性和实用性。
这项工作的意义在于,它为解决设施农业智能化收获中的关键视觉技术难题提供了新的思路和一套可行的技术方案。所提出的轻量化模型便于在资源受限的边缘设备(如采摘机器人)上部署,有助于降低智能农业装备的成本。而高度自动化的机器人系统则能显著减轻人工劳动强度、提高作业效率,对于推动农业生产方式的变革具有积极意义。该研究为番茄及其他类似果蔬的自动化收获提供了有益参考,展现了深度学习与机器人技术在智慧农业领域的巨大应用潜力。

生物通微信公众号
微信
新浪微博


生物通 版权所有