-
多模态引导的原型校准与基于时间连贯性的混合匹配算法,用于小样本动作识别
本文提出MGTH框架,通过MTAM模块增强时空与运动特征互补性,TPCM模块利用文本指导原型校准,VTA适配视频-文本特征,TCH混合匹配策略缓解时序偏移与类间局部相似性问题,在多个基准数据集上实现最优性能。
来源:Neural Networks
时间:2026-04-06
-
超越语义学:利用双适配器大型语言模型(LLMs)的传播结构进行虚假新闻检测
虚假新闻检测面临跨域挑战,传统内容分析因大语言模型(LLMs)生成逼真假新闻而失效。本文提出PSALLM框架,通过双适配器(非权重衰减适配器ANWD捕捉跨域不变结构,权重衰减适配器AWD建模域特定结构)与自适应蒸馏策略动态平衡两者,结合图前缀增强LLMs的传播结构感知能力。实验证明PSALLM在四组跨域数据集上显著优于基线,有效应对多平台、多主题的虚假信息传播。
来源:Neural Networks
时间:2026-04-06
-
DAG-NAS:一种用于强化学习的可解释神经架构搜索框架
可解释的神经架构搜索(NAS)框架,通过标量级DAG建模实现高精度架构搜索,结合可微优化和相关性剪枝策略,在强化学习(RL)任务中生成参数更少、性能相当且可解释性强的网络结构。
来源:Neural Networks
时间:2026-04-06
-
血浆胶质纤维酸性蛋白(plasma glial fibrillary acidic protein)和APOE-ε4与阿尔茨海默病(Alzheimer’s Disease)的关联
本研究通过分析529名中国老年人群的血浆GFAP、APOE-ε4基因分型及认知数据,结合277例MRI、284例Aβ PET和104例tau PET影像,发现APOE-ε4与GFAP水平升高均独立关联Aβ/tau病理加重及认知衰退,且GFAP在APOE-ε4影响Aβ/tau沉积及认知损害中起显著中介作用。研究证实星形胶质细胞激活是AD病理的关键机制,血浆GFAP可作为风险分层和靶向治疗的新型生物标志物。
来源:Neurobiology of Aging
时间:2026-04-06
-
CAPTR-GTP:基于类意识的提示与令牌精细化机制,结合图令牌传播技术实现少样本视觉Transformer(Few-Shot ViTs)
提出基于视觉Transformer的少样本学习框架CAPTR-GTP,通过不确定性感知令牌加权、类感知提示优化和双层级图注意力机制解决背景干扰和令牌信息丢失问题,在单域和跨域数据集上达到SOTA性能。
来源:Neural Networks
时间:2026-04-06
-
用于加速神经网络的扩张多层感知器混合器
提出Dilated MLP-Mixer方法,通过分层结构结合卷积和稀释MLP块,在保持准确性的同时将计算复杂度从平方级降至线性级,适用于资源受限的图像分类和检测任务。
来源:Neural Networks
时间:2026-04-06
-
一种抗噪声的分布式循环神经网络,用于多智能体共识控制和声源定位
本文提出噪声鲁棒分布式循环神经网络(NDRNN)框架,解决多智能体系统共识控制与声源定位中的噪声干扰问题。通过时间延迟机制和新型激活函数,实现抗周期噪声和随机干扰的全球稳定性控制,并在声源定位任务中验证其高精度与鲁棒性,较传统方法收敛更快且误差更低。
来源:Neural Networks
时间:2026-04-06
-
FA-Mamba:基于频率注意力机制的Mamba模型,用于多模态遥感分类
多模态遥感分类中提出FA-Mamba模型,结合频率注意力机制与坐标融合注意力,有效抑制多源数据噪声冗余,提升HSI与LiDAR融合分类精度至95.84%,并在三个公开数据集验证优于Transformer和Mamba方法。
来源:Neural Networks
时间:2026-04-06
-
通过双分支特征交互与融合实现的高分辨率图像去噪
高分辨率图像去雨存在计算成本高和特征提取困难问题,本文提出双分支去雨网络DDNet,通过CNN提取局部高频特征,Transformer提取全局低频特征,结合自适应频率互反模块AFRM增强频域特征交互,离散余弦变换多光谱融合模块MSFM动态融合多频域信息,以及双差分交叉注意力模块DDCAM缓解分支间特征差异,实验证明在保持低计算成本的同时显著提升去雨效果。
来源:Neural Networks
时间:2026-04-06
-
分层融合与局部感知的Transformer用于遮挡人物的重新识别
提出分层融合与局部感知Transformer(HFLAT)方法,通过特征分层融合模块增强关键区域身份特征,特征分离模块抑制背景干扰,局部感知多头注意力机制提取细粒度特征,在四个数据集上验证模型性能优于现有方法,Rank-1准确率达79.6%-95.9%,mAP达64.7%-90.8%。
来源:Neural Networks
时间:2026-04-06