随着数字视频在全球数据流量中占比突破40%,传统混合视频编码框架正面临严峻挑战。尽管H.266/VVC标准相比前代实现了约40%的码率节省,但其编码时间达到AV1的27-174倍,复杂的专利池更阻碍了产业落地。当手工优化的算法逼近性能极限时,深度神经网络(DNN)凭借强大的非线性表示能力,为视频压缩技术带来了革命性突破。IEEE Open Journal of Circuits and Systems最新发表的综述论文《End-to-End Neural Video Compression: A Review》系统梳理了端到端神经视频压缩(NVC)的技术脉络。由巴西联邦大学研究团队领衔的这项研究,通过对2022-2024年间18项创新工作的深度解析,揭示了NVC模型如何通过自动编码器(AE)、变换器(Transformer)等新兴架构,在压缩效率上逐步比肩传统编码标准。关键技术方法研究团队建立了分层分类体系,将NVC模型划分为残差编码、条件编码和条件残差编码三大范式。重点分析了基于变分自动编码器(VAE)的压缩框架、运动信息传播(MIP)机制以及特征空间操作等核心技术。通过UVG数据集上的率失真(R-D)曲线对比,验证了神经模型在MS-SSIM指标上的感知质量优势。特别关注了MobileNVC等面向移动设备的硬件友好型设计,其通过NPU-GPU协同计算实现了1080p实时解码。模型架构创新