研发动态

    当前位置: 首页 -> 研发动态 -> 隐私计算 -> 正文

    联邦学习隐私保护与性能优化系统

    来源:作者: 发布时间:2023-05-29 浏览次数:

    成果:面向异质数据的高效隐私联邦计算框架

    一、成果介绍

    面向异质数据的高效隐私联邦计算框架Octopus-FL拓展了现有国内外典型联邦学习平台功能,适应计算资源有限条件下隐私保护个性化需求,缓解了non-ID数据集联邦学习模型偏移问题。

    1、构建了典型机制的中心化/本地化差分隐私库。在当前主流的联邦学习框架中,Google的TFF和OpenMined的PySyft支持差分隐私算法种类有限,而微众银行的FATE系统、百度的PaddleFL、FederatedScope重点关注安全多方计算。Octopus-FL构建了典型机制的中心化/本地化差分隐私库,发展了场景化差分隐私联邦学习,均衡隐私水平和模型效用,拓展了典型联邦学习平台的隐私支持功能。

    2、构建了不同异质数据分布的联邦聚合算法库。面对数据异质性的多种情况,上述联邦学习框架的FedAvg算法存在全局模型漂移问题,Octopus-FL的聚合算法库引入了Fed-Prox、FedNova、Scaffold等多种聚合算法作为选择方案,并提出了相似度约束的动量加速联邦学习算法,缓解了本地训练模型漂移问题,提升了全局模型收敛速度和模型效用。

    二、对长安链的价值

    增强了长安链隐私计算平台适应于轻量级设备个性化隐私保护能力、扩展了长安链隐私计算平台处理non-IID数据集能力,解决了长安链隐私计算平台场景适应能力不足、计算复杂度高等问题,主要体现在以下几个方面:

    1、隐私保护方面,Octopus-FL的差分隐私库丰富了现有国内外典型联邦学习平台差分隐私保护功能,缓解现有加密方式带来计算复杂度高、成本开销大等问题,适配轻量级客户端个性化隐私保护需求。

    2、计算优化方面,Octopus-FL的聚合算法库拓展了典型联邦学习平台处理non-IID数据集能力,缓解了non-11D数据集设置下模型迭代偏移问题,提升了联邦学习平台模型迭代收敛速度和实际可用性。

    3、通信优化方面,揭示了联邦学习计算成本和通信开销协同优化机理,发展了基于模型压缩的联邦学习性能优化方法,深化了联邦学习平台的实际可用性。

    三、应用场景/案例

    1、推动Octopus-FL与FATE、TFF等隐私计算平台互联互通,缓解“计算孤岛",助力隐私计算合规性和监管性,推动建立隐私计算生态网络。

    2、可支撑金融、医疗、政务等领域数据隐私共享计算等业务需求,如金融风险控制模型构建、金融业务反欺诈检测、医疗协同诊断、政务企业信用评级等。