宇宙链 宇宙链
Ctrl+D收藏宇宙链

一篇搞懂隐私计算中的联邦学习(上)

作者:

时间:1900/1/1 0:00:00

摘要:对联邦学习作一个初步但尽量全面的介绍,着重介绍联邦学习方法的流变,解析落地应用中需要注意的质量与安全问题,并对相关应用场景提出针对性的建议。

关键词:联邦学习;数据安全;多方安全计算;同态加密;模型安全;合规

中图分类号:TP309.7??文献标识码:A

FederatedLearning:issuesanalysisandadvicestopracticalapplications

GUOWJ

(Express(Hangzhou)TechnologyServiceCompanyLimited,Shanghai200080)

ABSTRACT:?AbriefyetcomprehensiveintroductiontoFederatedLearning,withfocusonthehistoricaldevelopmentofitsmethods,thequalitativeandsecurityissues.Basedonthese,advicesonthepracticalapplicationsaregiven.

KEYWORDS:?FederatedLearning;datasecurity;MPC;homomorphicencryption;modelsecurity;compliance.

联邦学习技术今天已经成为保证隐私保护、数据安全合规的重要技术手段。特别是在金融支付领域,人们已经在积极探索应用联邦学习技术去保护商业机密、用户隐私以及满足监管和合规要求的可能性。

但作为一门新技术,联邦学习还不够成熟;其适用的场景,以及每个场景中相应所面临的安全问题以及局限性,还有待梳理。为此,本文介绍联邦学习的基本底层机制,梳理其发展源流,并就其中涉及的各种质量与安全问题、落地应用注意事项提出具体建议。特别地,本文区分了各种威胁模型下的数据安全需求,以及提出应对数据投和模型投需要结合使用可信计算技术。

本文组织如下:第一节介绍联邦学习的历史沿革与现状,以交待联邦学习方法的发展脉络,后续各节分别介绍需要在应用中注意的模型质量问题、数据安全问题、模型安全问题,最后给出落地应用建议。

1?联邦学习的历史沿革与现状

1.1?前传:分布式学习

进入21世纪后,由于搜索的需要,以及在天量数据和海量算力加持下,机器学习技术得到了蓬勃发展。机器学习的基础训练算法是梯度下降方法。但是梯度下降算法训练速度特别慢,因此在梯度下降方法的基础上发展出更多的变种,限于篇幅不一一介绍。

美国国会议员要求对SEC进行两项独立调查:金色财经报道,据美国国会议员RitchieTorres周四致信美国证券交易委员会监察长DeborahJeffrey,并致信政府问责办公室主计长GeneDodaro,要求对美国证券交易委员会(SEC)进行两项独立调查,原因是SEC”对数字资产的处理方式草率而粗暴\"。众议员托雷斯呼吁调查美国证券交易委员会对加密货币的态度。[2023/7/14 10:55:00]

随着数据量的进一步增大,即便应用这些变种,训练也很难集中在一台机器完成。因此,发展出了分布式训练方法。其中值得一提的是参数混合方法。这并不是一种具体的机器学习算法,如同后来出现的联邦学习方法一样,它是一种方法框架。在参数混合方法的框架中,数据集被分发到计算集群,各个节点使用所分发的数据分别训练,再将结果进行加权混合而非简单取均值以得到结果模型。

然而,这种方法不能用于损失函数为非凸的训练。2010年,McDonald等提出使用遍历性参数混合方法来保证分布式训练算法在非凸损失函数上的收敛性。其区别在于,各个节点之前所用方法为将每个数据集训练到收敛以后再进行参数混合,而遍历性参数混合方法则强调尽早混合,即在所分发数据集上完成一轮训练后立刻混合参数,并将混合好的参数分发给集群节点,作为下一轮训练的基础模型。两者的伪代码如图表1所示,其中黑体部分为两种方法的差别。

图表1左:参数混合方法;右:遍历性参数混合方法

遍历性参数混合方法能够有效利用集群计算机得到显著加速,作为一种分布式学习方法非常高效。然而,尽管分布式学习体现了一部分“非中心化”特性,但主要着眼于效率改进,一方面并未考虑到数据集不平衡、非独立同分布的情况导致适用范围受限,另一方面则未能解决隐私或者商业机密顾虑。这些缺失导致了联邦学习的崛起。

关于训练算法的收敛性,我们在后面还会看到其它研究提及。这里需要先指出的是,算法能够收敛仅指训练过程中预测误差会越来越小,直到无法或者无须继续改进,这时可以停止训练。但是,不同的训练算法、不同的数据分布,都有可能导致联邦学习框架下的学习算法收敛到不同的模型或参数,能收敛并不等于一定能得到最优化的结果。

1.2?横向联邦学习

Mantle Network已在测试网启动BIT到MNT的迁移:6月15日消息,Layer2解决方案Mantle Network在推特上宣布,已于6月9日完成测试网v0.4.0更新,本次更新后,Mantle Network测试网上的BIT已被重新命名为MNT(代币合约保持不变),并且团队已在Goerli测试网上部署了新的MNT合约和一个迁移合约。测试者可使用该迁移合约把Goerli BIT转换为Goerli MNT。

开发人员需要在Etherscan上找到并铸造MNT。部署在Mantle Network测试网上的任何dApp都需要进行相应的更改才能继续运行最新的网络版本。[2023/6/15 21:38:36]

分布式学习的主要驱动因素为训练效率。移动互联网则对机器学习提出了隐私保护挑战。一个典型的例子是考虑如何训练一个输入法预测模型。如果继续沿用过往将数据集中到一处的训练范式,势必招致隐私顾虑。即便意图训练预测模型的机构并不打算将所收集的用户输入法习惯数据用于其它用途,它依然面临如何安全管理这些数据的问题,并需要对可能的数据泄密承担相应的法律责任。

为了解决这个问题,2016年,谷歌公司和爱丁堡大学的研究人员Kone?ny等联合提出联邦优化概念,并作出理论分析以及初步验证。就作者所知,这是联邦学习中的“联邦”一词首次出现在相关学术文献上。Kone?ny等提出,联邦场景的数据分布具有如图表2所总结的特点:

图表2联邦场景的数据特点

这些特点导致分布式学习方法无法直接用于联邦场景。吸收了遍历性参数混合方法尽早进行加权混合的技术,提出一个新方法,使得参与训练的移动设备无须上传原始数据,只需要根据中间模型计算本地数据所产生的模型权重更新,并以节点数据量为权重加权汇总模型权重更新值,即能达到接近集中式训练的效果。

进一步证明,此加权汇总方法可以保证在平均情况下,梯度更新的方向等同集中式训练。这似乎能够证明算法的正确性。但在偏离“平均情况”的情形下算法是否仍然正确或者是否仍然能够保证训练得到较好的模型,属于模型质量问题,我们将在第2节进一步讨论。

由于原始数据无须离开参与训练的设备,联邦优化方法在分布式学习的基础上大幅度提高了隐私保护的力度。但是联邦优化方法是一个过于宽泛的方法,例如其中针对数据维度分布不均衡的问题,算法也做了相应的调整。因此其基本算法过程以及理论分析结果均适用于后来命名的“纵向联邦学习”场景。具体可以参见。

江苏出台工信领域数字人民币试点实施方案:5月29日消息,近日,江苏省工信厅印发《江苏省工业和信息化领域数字人民币试点实施方案》,提出在全省工信系统、工业和信息化领域重点企业和产业园区推广数字人民币应用,拓展数字人民币应用场景,赋能行业创新发展。围绕数字人民币应用场景建设,推动相关技术及软硬件产品创新,力争到2025年实现数字人民币账户规上工业企业基本覆盖,工信领域首创性示范性应用场景数量在试点省份领先,打造一批智慧江苏建设试点示范项目,形成更多可复制可推广的试点经验。[2023/5/29 9:48:59]

不过,机构合作场景的纵向联邦学习跟所设定的数百万台设备可以各自具备一些不同数据维度的情形毕竟不一样,反映到纵向联邦学习,可能具体算法仍然可以优化,并需要进一步的理论探讨。

次年,的共同作者McMahan和Ramage联合其他作者进一步提出“联邦学习”概念和“联邦平均”算法,对联邦优化方法作出工程技术上的优化。其中,根据数据维度出现频率加以调整的步骤被取消了,从的横向、纵向统一方法简化为后来命名的“横向联邦学习”方法。具体方法可以参考图表3。

图表3横向联邦学习方法

横向联邦学习适用于大规模移动设备协同训练模型,也可以用于多个具备相同数据维度的机构共同训练模型,但在2B场景中更多的是各家机构所持有的数据维度有很大差异,例如,一家医院所持有的疾患数据与一家人工智能公司所具备的建模能力,或一家银行和一个互联网出行平台都无法使用横向联邦学习技术来打通。这种情况下,分别又催生了纵向联邦学习技术和分割型神经网络技术。

1.3?纵向联邦学习

2017年,Hardy等提出两个拥有不同数据维度的数据提供方合作训练模型问题,并明确提出纵向联邦学习概念,以及实体对齐和加性同态加密技术的应用。

所谓实体对齐,指机构间需要确定所共有数据的对应实体,以便能在“同一条”数据上进行训练和预测的相关计算。对齐的前提是各方能够协商出某些公共的、具备实体识别能力的数据维度,例如注册用的电子邮件地址、身份证号码、手机号码,或者姓名、地址、生日等组合信息等等。如存在强标识,则实体对齐是典型的隐私求交问题,一般要求参与方仅获知被对齐的集合,而未被对齐的则需要保密。

数据:Solana链上NFT销售总额突破29亿美元:12月12日消息,据Cryptoslam数据显示,Solana链上NFT销售总额已突破29亿美元,截至目前为2,901,130,214美元,交易量达到15,468,355笔。当前Solana位列NFT销售额第三,仅次于以太坊和Ronin。[2022/12/12 21:39:01]

除了通过公信第三方或安全计算节点实现,也可以采用密码学算法来实现。但一般而言,隐私求交问题的密码学实现计算量和通信量都较大。这里需要特别指出的是,所考虑的主要是国外的情况,可能各方数据库里并不具备强身份标识,而仅具备姓名、生日等弱标识,所采用的对齐算法则不可避免会产生误差。因此,还深入研究了实体对齐中的各种误差对训练结果所产生的影响;这些分析研究是否适用于国内机构间的联邦学习场景,需要再结合实际情况加以具体分析。

而所谓的加性同态加密技术,是一种部分同态加密技术,其只能在密文空间保持对应明文的加法运算,且其密文上的运算结果解密后可以对应到相应明文的直接计算结果。?使用了Paillier加法同态技术。

在此基础上,提出了纵向联邦学习训练逻辑回归模型的方法。其中设定A和B为数据提供方,C为公信第三方居中协调。由于训练中需要使用A和B的对齐数据进行一定的交叉计算,即A部分的计算需要使用B的数据,B部分的计算需要使用A的数据,Paillier加法同态技术此处被用于防止A或B看见对方的明文数据,而其私钥则由C掌握。

2019年,杨强等提出针对纵向线性回归模型的联邦学习方案,同样使用了Paillier同态加密技术。由此也可见在纵向联邦学习场景中,目前并没有一个通用的方法框架,这跟之前所讨论的横向联邦不同,后者有通用的FedAvg算法及其Non-IID改进算法。这对纵向联邦学习的推广造成一定的障碍。

需要指出的是,除了同态加密技术,应用多方安全计算技术来解决A和B之间的保密计算需求,亦属可行,并且具备性能和功能的双重优势:性能方面,由于Paillier算法基于RSA,计算量相对多方安全计算协议大很多;而功能方面,则Paillier算法仅能支持加法,而多方安全计算协议则可以同时支持加法和乘法。本文第3节所提及的多个协议均可应用,如SPDZ,ABY3,SecureNN等。

1.4?分割型神经网络

2018年,Gupta等提出SplitNN,即分割型神经网络。这是一个多层的神经网络,其中靠近数据的某几层被分配给某个数据方,其它层则分配给其它参与方。这在建模外包场景中特别有用,典型的如医疗健康行业。医院往往同时掌握医疗图像等数据,以及对应的标签,但一般缺乏机器学习建模能力。SplitNN能够同时保护原始数据机密性以及模型提供方的商业秘密。

迈阿密市长:比特币可以成为一种全球货币:金色财经报道,在最近瑞士达沃斯举行的世界经济论坛上,迈阿密市长Francis Suarez苏亚雷斯表示,他在世界经济论坛上的角色与他在比特币迈阿密活动上的角色不同。在达沃斯,这位市长指出,他扮演了一个“布道者的角色”,向人们介绍比特币。他解释说,他试图让人们明白,这项技术将影响“许多人的生活”。除此之外,苏亚雷斯还讨论了比特币作为全球货币的潜力。市长强调,比特币为民主化,甚至“颠覆社会主义政权”提供了各种机会。此外,他说比特币“创造了信任,这是货币系统应该建立的基础”。苏亚雷斯的一些薪水是用比特币支付的,他大部分时间都用比特币。他强调,他相信加密背后的技术,并认为有一天他可以把它给他的孩子们。(cointelegraph)[2022/6/4 4:02:28]

SplitNN有多种部署方式,例如:1)一方拥有数据,另一方拥有标签和建模能力;2)一方拥有数据,第二方拥有标签,第三方拥有建模能力;3)多方拥有不同的数据,另一方拥有标签和建模能力。SplitNN能够支持非常多的、具备相同数据维度的数据方,也可以支持数据维度不同的多个数据方。

通过将多层神经网络的某些层分配给其中某些参与方,SplitNN能够同时起到混淆原始数据以保护隐私、模型分散持有以保护知识产权和商业秘密之双重作用。另外,神经网络特别是深度神经网络的训练计算量非常大。SplitNN的一个动机是尽量减少在数据端的计算量,而将主要的计算负荷交给服务端完成。

2?联邦学习的模型质量问题

这个问题是说:以集中式训练为基准,联邦学习能不能达到同样或接近的模型质量?所谓模型质量,一般使用预测准确值来度量。目前为止,这个问题的答案并不令人十分满意,学术界仍在积极研究中,以下介绍部分研究成果。

2.1?横向联邦学习

在横向联邦学习中,每个数据节点在一个中间模型的基础上使用本地数据进行训练,然后使用所得到的模型权重更新数据去参与形成新的中间模型。对照基准设定即集中式训练,不难看出,横向联邦往往是使用多条数据而形成一次模型权重更新数据,而集中式训练则可以根据每条数据产生模型权重更新。这在数据大体“均匀”分布于各参与设备的时候,一般没有问题。然而,如果不均匀,那么训练出来的模型可能会有质量问题。

Zhao等指出,在极端的非独立同分布情况下即正好每个类别的数据都处于不同设备上的时候,横向联邦学习算法的精确度会大幅度降低,降幅最高可达55%;并提出了相应的折衷解决方案,即通过牺牲部分分布式特性,集中一部分数据来解决极端非独立同分布数据可能带来的问题。然而,这个折衷方案跟隐私保护目标产生了直接冲突。

除了标签分布问题,Non-IID可能还有其它形式,例如数据主体之间可能具备不同的、足以影响模型参数的特性。例如,语音识别样本数据可能具有鲜明的年龄特色,而消费习惯模型则可能具备地域特色。

为此,Mohri等提出“不可知”联邦学习方法。所谓不可知,是指在组合每个参与方所训练出来的本地模型时,并不采用FedAvg算法以数据量占比为权重加权汇总的做法,而是说“不知道”应该用什么权重来汇总。

由于不知道具体的权重分布,AFL算法着眼于训练出一个权重分布,以最小化在所有可能的数据-标签联合分布中造成的最大期望损失。Mohri等作者测试了三个数据集,结果显示AFL能在一定程度上改善预测精度,特别是在传统方法预测精度比较差的类别上能有较大改善。Mohri等认为,这显示AFL算法能够产生更为“公平”的训练结果。

2.2?纵向联邦学习

纵向联邦学习面临类似横向联邦学习的Non-IID数据问题:如果针对每条对齐数据都计算更新、交换数据,则计算量、通信量都很大;如果将一批数据汇总计算一次更新,则需要设法保证总体数据在各批次数据之间是独立同分布的,以此避免Non-IID数据问题。幸运的是,跟横向联邦学习场景不同,纵向场景中,参与方一般拥有全部交集用户,因此具备保证数据独立同分布的基础。目前还没有看到相关的研究文献,但这是落地应用需要关注的问题:如果实体对齐后的数据乱序重排未能解决Non-IID问题,则需要专门再去研究。这也是为什么需要设立性能基准的原因之一。”中5.2内容)

2.3?分割型神经网络

除了需要在参与实体之间传递某层的输出或权重更新,分割型神经网络跟集中式训练的过程并无太多差异。因此,它能达到的模型质量可以匹敌集中式训练。SplitNN设定中没有将客户端全部数据本地集中训练以后再归集服务器的做法,而是每条数据都需要经过本地层计算后传给服务器。这避免了Non-IID数据引起的模型质量问题,也是SplitNN方法的一个显著优势。

参考资料:

MannG,McDonaldR,MohriM,etal.EfficientLarge-ScaleDistributedTrainingofConditionalMaximumEntropyModels.NeuralInformationProcessingSystems(NIPS),2009.

McDonaldR,?HallK,?MannG.DistributedTrainingStrategiesfortheStructuredPerceptron//HumanLanguageTechnologies:ConferenceoftheNorthAmericanChapteroftheAssociationofComputationalLinguistics,Proceedings,June2-4,2010,LosAngeles,California,USA.AssociationforComputationalLinguistics,2010.

Kone?nyJ,?McMahanHB,?RamageD,etal.FederatedOptimization:DistributedMachineLearningforOn-DeviceIntelligence.?arXivpreprintarXiv:1610.02527.2016.

McMahanHB,?MooreE,?RamageD,etal.Communication-EfficientLearningofDeepNetworksfromDecentralizedData.ArtificialIntelligenceandStatistics,2017:1273-1282

HardyS,HeneckaW,Ivey-LawH,etal.Privatefederatedlearningonverticallypartitioneddataviaentityresolutionandadditivelyhomomorphicencryption.arXivpreprintarXiv:1711.10677.2017.

FreedmanMJ,?NissimK,?PinkasB.EfficientPrivateMatchingandSetIntersection//Internationalconferenceonthetheoryandapplicationsofcryptographictechniques.SpringerBerlinHeidelberg,2004:1-19.

PaillierP.Public-KeyCryptosystemsBasedonCompositeDegreeResiduosityClasses.Internationalconferenceonthetheoryandapplicationsofcryptographictechniques.Springer,Berlin,Heidelberg,1999:223-238.

YangQ,?LiuY,?ChenT,etal.FederatedMachineLearning:ConceptandApplications.ACMTransactionsonIntelligentSystemsandTechnology,2019,10(2):1-19.

GuptaO,?RaskarR.Distributedlearningofdeepneuralnetworkovermultipleagents.Journalofnetworkandcomputerapplications,2018,116(AUG.):1-8.

VepakommaP,?GuptaO,?SwedishT,etal.Splitlearningforhealth:Distributeddeeplearningwithoutsharingrawpatientdata.arXivpreprintarXiv:1812.00564.2018.

ZhaoY,?LiM,?LaiL,etal.FederatedLearningwithNon-IIDData.arXivpreprintarXiv:1806.00582.2018.

MohriM,?SivekG,?SureshAT.AgnosticFederatedLearning.Internationalconferenceon?machinelearning,?2019:4615-4625.

作者简介

郭伟基:原美国运通在中国境内合资银行卡清算机构——连通技术服务有限公司创新技术部负责人,总监,主要从事前沿创新技术如隐私计算、联邦学习、同态加密、智能合约等在金融支付、风险管理、精准营销等方面的应用。

待续......敬请期待~

内容旨在信息传递,不构成任何投资建议。

排版:Shine丨达瓴智库

审核:Amber丨达瓴智库

标签:IONINGTEDLEAGlobal Innovative SolutionsturingaiUnited States Property CoinCyClean

火币APP下载热门资讯
CFTC要求去中心化预测市场项目Polymarket支付140万美元的罚款,项目方称已达成和解

出品|白泽研究院 原标题:《CFTC2022年对DeFi的首次执法:Polymarket》周一,美国商品期货交易委员会(CFTC)对去中心化金融公司采取了今年的首次执法.

1900/1/1 0:00:00
Airbnb或将在2022年增加对加密货币支付的支持

据U.Today消息,1月5日,Airbnb首席执行官BrianChesky发推公布此前向其Twitter粉丝征求的,与Airbnb相关的建议。结果显示,在4000条建议中,“接受加密货币支付”处于领先地位.

1900/1/1 0:00:00
融资新闻丨NFT拍卖协议Burnt Finance完成800万美元融资,由Animoca Brands 牵头

1月17日,BurntFinance的创始人告诉Blockworks,去中心化NFT拍卖协议BurntFinance在A轮融资中筹集了800万美元,以扩展其团队,因为它部署和集成了新的链和产品功能.

1900/1/1 0:00:00
关于Moxie对“Web3的第一印象”,V神等人有话要说

上周末,知名加密通讯应用Signal创始人MoxieMarlinspike发布了一篇题为“我对web3的第一印象”的文章,引起了加密圈的热烈讨论.

1900/1/1 0:00:00
稳定币和加密货币影子银行的动态模型研究:不稳定的陷阱是什么?

稳定币的兴起是为了满足去中心化金融中对安全资产的需求,稳定币发行者通过部署各种策略,将有风险的储备资产转化为价值稳定的代币.

1900/1/1 0:00:00
韩国政府要求苹果和谷歌应用商店下架P2E游戏

韩国政府已经采取行动,阻止新的边玩边赚游戏的发行,并要求将现有的P2E游戏从GooglePlay和苹果的AppStore中删除。P2E游戏在加密货币行业已经变得流行.

1900/1/1 0:00:00