章节摘录
引言
激光雷达点云对于3D场景理解至关重要,推动了自动驾驶(Lu等人,2025年)、机器人技术(Wang等人,2021年)等相关领域的发展(Pan等人,2025年;Ye等人,2025年)。激光雷达全景分割的目标是为每个前景(物体)和背景(杂物)点预测语义标签,并为物体点推断出实例ID。以往的研究方法大致可分为两类:
弱监督3D语义分割
由于存在大量冗余的标注数据,大多数弱监督3D感知方法都专注于语义分割(Zhang等人,2021a)。例如,Zhang等人(2021a)设计了一种点云着色预训练任务来提升弱监督点云分割的性能;Wang等人(2025)的SDSimPoint框架引入了一种浅层-深度相似性学习网络,用于学习不同点云之间的多种相似性,包括几何、颜色和语义方面的相似性。
方法论
在本节中,我们首先在第3.1节介绍高效标注全景分割的问题背景;第3.2节阐述用于获取少量语义标签的主动标注策略;第3.3节描述了基于少量语义标签生成粗略实例标签的流程;第3.4节则介绍了进一步优化实例标签的细节。
实验设置
对比用例的标注要求:在“随机点”(Random Point)设置中,我们按照给定比例随机标注部分点。对于被标注的点,杂物点被赋予语义标签,而物体点则同时被赋予语义标签和实例ID。这样每个前景实例至少有一个点被标注,这可以被视为一种强标注形式。在“随机框”(Random Box)设置中,杂物类的点同样以随机方式被标注。
结论
在本文中,我们提出了一种适用于激光雷达场景的高效标注全景分割框架。该框架首先通过主动标注策略获取少量语义标签,然后利用启发式聚类算法自动生成粗略的实例标签;此外,基于语义预测和具有类别意识的实例先验,实例标签传播模块能够更有效地识别前景点。此外,我们的几何引导对比学习机制进一步增强了空间特征的表达能力和对象区分能力。
CRediT作者贡献声明
张伟健:可视化、验证、方法论设计。宋海川:概念框架构建。张志忠:方法论实现。谭鑫:写作、审稿与编辑。马丽庄:项目监督。谢远:写作、审稿与编辑。
利益冲突声明
作者声明不存在任何可能影响本文研究的已知财务利益冲突或个人关系。
张伟健于2018年在中国吉林大学软件工程学院获得软件工程学士学位,目前正在华东师范大学攻读计算机科学与技术博士学位。他的研究兴趣包括3D视觉和视觉-语言模型,尤其关注点云全景分割、深度估计以及利用视觉-语言模型进行空间理解。