人工智能(AI)的迅速发展极大地改变了计算机视觉领域,这在很大程度上得益于深度学习架构的创新(Sharifani和Amini,2023年;Voulodimos等人,2018年)。卷积神经网络(CNN)仍然是包括农业、医学图像分析和自动驾驶在内的关键视觉任务的基石(Litjens等人,2017年;He等人,2023年;Han等人,2022年;Sangaiah等人,2025年)。然而,深度CNN的计算需求给部署带来了巨大挑战。例如,16层的视觉几何组网络(VGG)在前向传播中需要155亿次浮点运算(FLOPs)(Simonyan和Zisserman,2014年),而更深层次的架构如152层的残差网络(ResNet)则需要113亿次运算(He等人,2016年)。这些高资源需求在边缘计算场景中尤为突出,因为智能相机、无人机和移动平台等设备必须在内存、功耗和实时处理方面受到严格限制(Gowda等人,2025年;Jiang等人,2023年)。模型复杂性与硬件限制之间的这种日益增长的不匹配凸显了需要有效的模型压缩技术,以在保持准确性的同时提高计算效率。
模型压缩已成为一个关键的研究领域,它整合了优化理论、硬件感知设计和机器学习的原理。已经探索了多种技术来平衡效率和性能。知识蒸馏通过逻辑对齐和特征匹配促进从大型教师模型到紧凑学生模型的知识转移(Hinton等人,2015年)。量化降低了数值精度,将高位表示映射到低位格式,极端情况下甚至可以使用1位精度的二进制网络(Jacob等人,2018年)。神经架构搜索(NAS)利用强化学习或基于梯度的优化自动发现优化的网络拓扑(Zoph和Le,2016年)。在这些策略中,结构化剪枝因其对CNN加速的实际优势而脱颖而出。与引入不规则稀疏模式的不结构化剪枝不同,结构化剪枝会移除整个滤波器或通道,从而保持网络的密集结构。这种规律性确保了与标准推理引擎的兼容性,并消除了与稀疏矩阵操作相关的开销,使得结构化剪枝成为实际应用中的高效方法(Lian等人,2025年;Cai等人,2025年)。
结构化剪枝的成功取决于两个关键因素:(1)识别对模型性能影响最小的冗余滤波器;(2)剪枝后有效恢复表示能力。然而,现有方法存在几个局限性。基于幅度、基于相似性和一阶的方法主要在线性假设下运行,因此难以捕捉由修正线性单元(ReLU)激活函数、批量归一化(BN)和残差耦合引起的复杂非线性激活模式。这种不匹配可能导致重要性排名不稳定和准确性下降,尤其是在剪枝通道仅在非线性区域起关键作用时。这暴露了一个需要考虑线性敏感性和非线性激活动态的标准的空白。因此,我们提出了一种新的非线性感知标准,明确考虑了线性和非线性两种情况,从而提高了冗余通道量化的精度,并做出了更稳定的剪枝决策。
此外,传统的“剪枝-重新训练”策略过度依赖计算密集型的重新训练阶段来恢复模型的表现能力。虽然分层错误重建提供了一种绕过重新训练的潜在替代方案,但现有方法主要依赖于过于简化的目标,如均方误差(MSE)最小化,这些目标无法有效保持对特征表示至关重要的多尺度空间层次结构。我们提出了一种多知识特征重建策略,恢复了剪枝层的容量。这在多个尺度上建立了层次化的特征保留,同时保持了低级纹理模式和高级语义信息。
总体而言,我们的主要贡献总结如下。
- 我们提出了一种结构化剪枝框架,它将基于梯度的重要性评估与逐层错误恢复相结合,有效加速了深度学习模型的同时保持了它们的表示能力。
- 我们提出了一种混合阶重要性准则(HOIC),通过结合一阶和二阶泰勒展开精确量化结构的重要性。它在平滑区域保持了一阶效率,同时通过二阶校正补偿了梯度的消失。
- 我们提出了一种多知识协同重建(MKSR)方法,取代了传统的“剪枝-重新训练”范式。它建立了分层多尺度特征保留架构,克服了单一目标重建策略的局限性。