基于强化学习的节点自适应图对抗训练方法(RGAL):提升图神经网络鲁棒性的新策略

时间:2025年10月18日
来源:Pattern Recognition

编辑推荐:

本文提出了一种创新的强化图对抗学习框架RGAL,通过双深度Q网络(DDQN)智能体为不同节点自适应选择对抗动作(边添加/删除、特征扰动或无操作),有效解决了传统图神经网络(GNN)对抗训练中策略单一化的问题。实验表明该方法在Citeseer、Cora和PubMed数据集上显著提升节点分类准确率(最高达4.6%),同时推出轻量级变体f-RGAL(特征扰动)和e-RGAL(结构扰动)以适应资源受限场景。

广告
   X   

Highlight
图神经网络(GNN)在节点分类任务中表现卓越,但其对细微扰动的脆弱性已成为关键隐患。传统对抗训练方法往往孤立处理特征或结构扰动,且采用统一策略,难以应对现实世界中复杂的混合攻击场景。RGAL框架通过强化学习实现节点自适应的对抗训练,动态生成多样化攻击样本,显著提升模型韧性。
Related Work
作为图结构学习的核心模型,GNN在节点分类等领域成果显著。然而深层GNN存在的效率低下与过度平滑问题,促使研究者开发多种训练优化策略。例如Zhang等人提出解耦框架,通过新颖的反向训练机制同步训练多个浅层GNN,有效提升训练效率。
Proposed Methods
本节详细阐述RGAL框架的算法架构。我们采用标准图卷积网络(GCN)作为基础分类器,通过堆叠卷积层聚合节点局部邻域信息。针对已训练的GCN分类器f(·),RGAL引入强化学习机制动态决策节点级对抗动作,实现特征与结构的协同扰动。
Experiments
我们首先介绍实验数据集与评估指标,随后展示节点分类性能和鲁棒性对比结果。进一步验证了所提方法的稳定性与收敛速度。
Conclusion
本研究提出的RGAL框架通过强化对抗学习机制增强图嵌入模型的鲁棒性。相较于传统仅针对结构或特征扰动的GAL方法,RGAL创新性地融合双重维度并采用自适应节点策略,实现更灵活高效的对抗训练。实验证明RGAL在基准测试中显著优于原始图卷积网络。

生物通微信公众号
微信
新浪微博


生物通 版权所有