随着大数据技术、机器学习和深度学习的快速发展,它们在众多应用领域展现了显著的效果。然而,传统的集中式数据存储和训练方法无法满足实际场景中提出的严格的数据安全要求,特别是涉及敏感数据的情况[1]、[2]。为了克服这一限制,联邦学习(FL)作为一种专门的分布式学习方法,可以确保数据保持本地化,同时联合多个客户端来训练模型,从而为数据隐私保护提供了一种新的解决方案。
然而,现实世界的联邦学习用例经常处理异构的非独立同分布(Non-I.I.D.)数据[3]、[4]、[5],其中非独立同分布表现为特征分布偏斜、标签分布偏斜和数量偏斜[6]。因此,在非独立同分布的场景中,联邦学习框架中包含一些数据量很少或数据严重不平衡的客户端,即异常客户端。现有研究从两个主要角度分析了非独立同分布数据和异常客户端对FL的影响:FL框架架构和FL过程。
从架构角度来看,FL框架通常采用客户端-服务器或点对点网络结构[7]、[8]。由于缺乏客户端间的通信和可信的第三方服务器,客户端-服务器架构会导致客户端之间的优化方向不一致。这阻碍了有效的知识传递,增加了客户端模型之间的差异,导致全局收敛速度变慢和个性化性能受限[9]。在点对点网络结构中,客户端直接相互交互。然而,这种结构没有固定的云服务器设计,客户端根据特定规则在每一轮迭代中随机选择为临时服务器。因此,由于缺乏集中的协调节点,全局模型的更新完全依赖于客户端之间的协作,这影响了高度一致性和协调性的实现[10]。这两种传统的联邦学习框架都存在固有的局限性。在处理现实世界中的非独立同分布数据时,异常或恶意客户端的数量会增加,而客户端之间的信任问题会导致通信拒绝。这些挑战使得传统的FL框架难以解决数据障碍和通信客户端之间的模型异质性问题。
整个FL过程可以分为模型训练阶段和模型聚合阶段[11]、[12]。在模型训练阶段,客户端在每次迭代中使用本地数据训练新的全局模型。客户端上的模型优化方向仅基于本地数据分布来确定,而全局模型则学习整体数据分布。因此,客户端模型在个性化与泛化之间产生了冲突[13]。传统方法产生的全局模型容易受到异常客户端的影响,在全局聚合过程中加剧了收敛问题[14]。简而言之,在异构数据场景中,联邦学习过程的两个阶段都受到非独立同分布数据的影响,导致模型无法同时适应局部和全局数据分布,最终导致模型性能下降[15]。
为了解决上述问题,我们从联邦学习框架和训练两个角度同时优化联邦学习,提出了一种基于区块链的个性化联邦学习框架BSDPFL。1) 利用去中心化结构提高集中式架构的传输效率,为后续的客户端间通信奠定基础;利用区块链的高可靠性和连通性来减轻异常客户端对FL训练的影响,从而打破现实世界应用场景中的数据障碍。2) 通过邻居通信机制实现的客户端间通信促进了端到端的学习,弥合了客户端-服务器架构中的模型更新差异。3) 为了灵活控制全局知识对齐与局部个性化之间的权衡,提出了一种自适应的L2正则化策略结合动态模型知识吸收机制。4) 提出了一种混合聚合策略,考虑了模型相似性和基于性能的贡献度,动态调整客户端权重,同时减轻异常客户端的不利影响。在两个不同的数据集上进行了广泛的实验,BSDPFL在非独立同分布条件下显著优于其他模型。
本研究的主要贡献总结如下:
我们提出了BSDPFL,一种基于区块链的半去中心化个性化联邦学习框架,用于解决客户端模型之间的异质性、客户端模型上的局部个性化与泛化之间的冲突,以及异常客户端的影响。为了减轻客户端模型之间的异质性,引入了区块链技术来建立可信的第三方服务器,从而构建了一个半中心化的联邦学习框架。这种方法在打破数据孤岛的同时确保了通信安全,并提高了传输效率。此外,知识蒸馏帮助客户端相互学习,减少了模型差异。为了减轻局部模型和全局模型之间的优化方向冲突,我们设计了一种自适应的L2正则化策略结合动态模型知识吸收机制,使客户端能够在训练过程中动态平衡全局知识对齐和局部个性化。为了减少异常客户端对模型聚合的不利影响,我们提出了一种混合聚合策略,结合了基于Frobenius的模型相似性和基于性能的贡献度加权,提高了在非独立同分布数据场景下的聚合鲁棒性和公平性。在Fashion-MNIST、CIFAR-10和CIFAR-100上的广泛实验表明,BSDPFL在收敛速度和最终模型准确性方面显著优于现有的个性化FL方法,并在非独立同分布场景下保持了强大的鲁棒性。