发布信息

基于多偏置交互的纵向联邦场景神经网络训练方法、电子设备及存储介质 专利技术说明

作者:admin      2023-07-05 12:07:48     654



计算;推算;计数设备的制造及其应用技术1.本发明属于隐私计算技术领域,具体涉及基于多偏置交互的纵向联邦场景神经网络训练方法、电子设备及存储介质。背景技术:2.联邦机器学习,又称联邦学习,是一套可以有效帮助多个机构在满足用户隐私保护、数据安全和政府法规的要求下进行数据使用和机器学习建模的机器学习框架,其可以有效地解决数据孤岛问题。联邦学习根据场景持有数据的不同模式分为横向联邦学习、纵向联邦学习以及迁移联邦学习,其中纵向联邦学习为训练协助方拥有的数据在条目对应的现实个体上存在一定交集但在数据的特征上几乎完全不同的场景。3.现阶段纵向联邦学习运用较为广泛的是微众银行开发的联邦人工智能框架中的纵向联邦神经网络算法,其支持多方协同执行纵向联邦场景下的神经网络算法,保证协助方不泄露数据隐私的情况下能够提供与非隐私保护方案下同级别的准确度。该算法目前主要运用于预测和分类,协助方在训练过程中会依据是否具有分类的指导标签而分成训练发起方(持有)和训练协助方(不持有)。同时,纵向联邦神经网络模型结构被分为三个层次部分模型,分别为底层模型、交互层模型、顶层模型,训练协助方仅具备底层模型,而训练发起方具有全部的模型,三类模型的功能各不相同:底层模型主要负责各方试用本地数据进行精炼提纯与模型训练,得到中间结果;交互层模型负责双方的数据交互,将双方的底层中间结果进行整合,输出作为顶层输入数据的中间结果;顶层为训练发起方独有,其根据交互层模型的输出训练顶层模型,得到最终的分类结果。4.现有的模型结构中训练协助方相当于仅仅进行了本地数据的特征工程并将结果传输给训练发起方,除此之外并没有任何的参与度,其将底层模型的训练结果通过协议发送给训练发起方之后就只需要等待更新信息即可,以至于本身实现系统的实例化场景以及部分研究在对于该模型进行优化时为了提高效率,将底层化简为了仅含有一层的感知机结构,这样做虽然也可以有效地达到目的,但是并没有有效地实现联邦学习提出的初衷,对于训练协助方的参与吸引力也有所不足。技术实现要素:5.本发明要解决的问题是引入数据交互的时机节点以及交互的安全传输协议,以期达到在安全传输的前提下引入较小的通信代价达到同样甚至更优的效率,提出基于多偏置交互的纵向联邦场景神经网络训练方法、电子设备及存储介质。6.为实现上述目的,本发明通过以下技术方案实现:7.基于多偏置交互的纵向联邦场景神经网络训练方法,包括如下步骤:8.s1、定义训练参与各方的模型结构为全连接层、dropout层,同时训练参与各方模型的底层模型的层数相同,训练参与各方包括训练发起方、训练协助方;9.设置训练发起方的数据特征为表示训练发起方具有m维度的数据,y为标签属性,数据已完成对齐处理;10.训练协助方的数据特征为表示训练协助方具有n维度的数据,数据已完成对齐处理;11.s2、将步骤s1的训练发起方的数据、训练协助方的数据进行前向传播方法训练,得到前向传播方法的训练结果;12.步骤s2的具体实现方法包括如下步骤:13.s2.1、底层模型训练方法:包括训练参与各方分别计算底层模型的每一层的中间结果,处理后得到的传输偏置量训练参与各方进行交互传递,训练参与各方根据交互数据更新底层模型的偏置量,然后训练参与各方分别训练更新偏置量的底层模型,得到底层模型输出结果,进入下一步;14.s2.2、交互层模型训练方法:训练参与各方根据步骤s2.1的底层模型输出结果在交互层模型基于paillier同态加密和差分噪声进行交互传递,获得交互层模型的总体中间结果作为交互层模型激活函数的输入数据,交互层模型激活函数的输出结果,进入下一步;15.s2.3、顶层模型训练方法:训练发起方将交互层模型激活函数的输出结果作为顶层模型的输入,进行最终的分类模型训练得到前向传播方法的训练结果16.s3、反向传播方法:将步骤s2得到的前向传播方法的训练结果进行反向传播方法训练,训练协助方和训练发起方分别进行模型参数的更新,完成一轮的训练;17.s4、重复步骤s2和s3,直至训练结果达到精度要求或者停止条件,完成基于多偏置交互的纵向联邦场景神经网络训练。18.进一步的,步骤s2.1的具体实现方法包括如下步骤:19.s2.1.1、设置为训练发起方的底层模型的第t层参数,为训练协助方的底层模型的第t层参数:[0020][0021][0022]其中,训练发起方的底层模型第t层参数具有i个神经元,第t+1层具有j个神经元,训练协助方的底层模型第t层参数具有l个神经元,第t+1层具有k个神经元;[0023]s2.1.2、训练发起方、训练协助方分别计算底层模型的每一层的中间结果,最后一层不做计算,第一层的中间结果计算公式为:[0024][0025][0026]其余各层的中间结果计算公式为:[0027][0028][0029]其中和为训练发起方和训练协助方的第t层中间计算结果,relu为神经网络全连接层和dropout层结构的激活函数的一个常用实例;[0030]s2.1.3、将计算得到的中间结果进行处理,处理公式为:[0031](除最后一层外的所有层中间结果均进行计算)}[0032](除最后一层外的所有层中间结果均进行计算)}[0033]其中,zb为训练发起方的传输偏置量,za为训练协助方的传输偏置量,sum_row函数的输入为矩阵类型数据,对于输入数据的每一行加和计算,trans函数的输入为矩阵类型数据,对于输入数据的每一列进行平均值计算;[0034]s2.1.4、训练发起方将zb发送给训练协助方,同时接收其发送过来的za,训练发起方将za的每一项作为加权系数,同步更新到训练发起方底层模型的模型偏置量b={bi|i=1,2,…(除最后一层外的所有层)},将za保存为本地结果[0035]训练协助方将za发送给训练发起方,同时接收其发送过来的zb,训练协助方将zb的每一项作为加权系数,同步更新到训练协助方底层模型的模型偏置量a={ai|i=1,2,…(除最后一层外的所有层)},将zb保存为本地结果[0036]第一轮训练的更新公式为:[0037]bi=bi·zai[0038]ai=ai·zbi[0039]其中,zai为za的第i项,zbi为zb的第i项;[0040]非第一轮训练的更新公式为:[0041][0042][0043]其中,为的第i项,为的第i项;[0044]s2.1.5、训练参与各方分别训练更新偏置量的底层模型,得到训练协助方底层模型输出结果αa,训练发起方底层模型输出结果αb。[0045]进一步的,步骤s2.2的具体实现方法包括如下步骤:[0046]s2.2.1、训练协助方使用paillier同态加密αa,得到αa的密文数据[αa],发送给训练发起方;[0047]s2.2.2、训练发起方接收到[αa]后,进行计算,计算公式为:[0048][za]=[αa]·wa[0049]其中,[za]为加密情况下训练协助方端在交互层所计算的中间结果,wa为交互层模型对应训练协助方部分的权重;[0050]s2.2.3、训练发起方同时根据维度生成噪声εb,将[za]+εb发送给训练协助方,进行本地计算的计算公式为:[0051]zb=αb·wb[0052]其中,zb为不加密情况下训练发起方端在交互层计算的中间结果,wb则是交互层模型对应训练发起方部分的权重;[0053]s2.2.4、训练协助方计算累计噪声εacc·αa,并将接收到的密文进行解密得到za+εb,然后进行加和计算,得到的计算结果发送给训练发起方,计算公式为:[0054][0055]其中,εacc为反向传播过程中训练协助方每轮训练生成的噪声εa的加和,为含有噪声的训练协助方交互层中间结果;[0056]s2.2.5、训练发起方接收后,计算交互层总体中间结果z,计算公式为:[0057][0058]将z作为交互层激活函数的输入数据,得到交互层模型激活函数的输出结果g(z)。[0059]进一步的,步骤s3的具体实现方法包括如下步骤:[0060]s3.1、顶层模型训练方法:训练发起方根据前向传播方法的训练结果标签y更新顶层模型参数,计算基于顶层模型的损失δ,进行下一步;[0061]s3.2、交互层模型训练方法:训练发起方基于损失、交互层模型激活函数计算交互层激活函数的损失,训练发起方计算更新自身底层模型参数的损失,然后更新交互层模型对应训练发起方的参数,然后训练发起方、训练协助方基于paillier同态加密和差分噪声进行交互计算,得到更新的训练协助方的底层模型参数的损失,然后训练发起方更新交互层模型对应训练协助方的参数,然后发送给训练协助方,训练协助方解密收到的更新训练协助方的底层模型参数的损失进行下一步;[0062]s3.3、底层模型训练方法:训练协助方解密收到的更新训练协助方的底层模型参数的损失传给底层模型,训练发起方和训练协助方分别进行底层模型参数的更新。[0063]进一步的,步骤s3.2的具体实现方法包括如下步骤:[0064]s3.2.1、训练发起方基于损失δ、交互层模型激活函数,计算交互层激活函数的损失δact;[0065]s3.2.2、训练发起方先计算底层模型部分参数的损失δbottom_b,用于更新底层模型模型参数,计算公式为:[0066]δbottom_b=δact·wb[0067]s3.2.3、基于δact更新交互层模型对应训练发起方的参数,计算公式为:[0068]wb-=η*δact·αb[0069]其中,η为设定的模型学习率;[0070]s3.2.4、训练发起方生成噪声εb,基于paillier同态加密和差分噪声进行计算,计算结果δact·[αa]+εb发送给训练协助方;[0071]s3.2.5、训练协助方将εacc加密得到[εacc],接着生成噪声εa,更新εacc+=εa,将步骤s3.2.4的计算结果解密后得到δact·αa+εb;训练协助方将[εacc]传送给给训练发起方;[0072]s3.2.6、训练发起方接收到步骤s3.2.5的结果后,首先将δact·(wa+[εacc])回传给训练协助方作为更新训练协助方的底层模型的损失,然后更新交互层模型对应训练协助方的参数wa,计算公式为:[0073][0074]s3.2.7、训练协助方解密δact·(wa+[εacc]),传给底层模型进行底层模型参数的更新。[0075]电子设备,包括存储器和处理器,存储器存储有计算机程序,所述的处理器执行所述计算机程序时实现所述的基于多偏置交互的纵向联邦场景神经网络训练方法的步骤。[0076]计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现所述的基于多偏置交互的纵向联邦场景神经网络训练方法。[0077]本发明的有益效果:[0078]本发明所述的基于多偏置交互的纵向联邦场景神经网络训练方法,针对在底层模型添加了中间计算结果交互从而修改模型结构的创新策略,其增加了训练各方之间的信息交互。同时在模型训练的底层模型这一主要执行依靠全连接层模型结构进行线性运算进行特征筛选与清洗的特征工程功能的阶段引入各方的中间计算结果的交互,使得特征的过滤功能得到多方数据信息的指导,结果更具说服力。而要评估引入交互的可行性与实用性需要从协议安全性以及通讯代价的角度介入。底层模型的偏置交互与更新是新引入的安全协议,该方案考虑将各方底层模型模型计算的每一层的激活函数的输入信息转换为一个计算中间结果,将其作为传输偏置值传递给对方,协助方将偏置值同样视作参数与输入相结合的形式而非常数,其新的传入形式为原始生成的常数偏置值与传输偏置值的乘积。方案当中将输入信息压缩成值的方式为对于每条数据的输入中间信息进行求平均。[0079]本发明所述的基于多偏置交互的纵向联邦场景神经网络训练方法,在每轮模型训练之前于底层模型部分加入了数据信息交互,对于底层模型的每一层进行模拟计算中间结果输入,并经过处理混淆得到传输中间值向量,设计了相关的安全传输协议来保证其信息传输中的数据隐私安全以及传输的效率可行性,使得底层模型进行数据处理和训练时带有其他协助方数据的信息,对于数据的加强利用存在价值。附图说明[0080]图1为本发明所述的基于多偏置交互的纵向联邦场景神经网络训练方法的流程图;[0081]图2为本发明所述的前向传播方法的示意图;[0082]图3为本发明所述的反向传播方法的示意图。具体实施方式[0083]为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及具体实施方式,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施方式仅用以解释本发明,并不用于限定本发明,即所描述的具体实施方式仅仅是本发明一部分实施方式,而不是全部的具体实施方式。通常在此处附图中描述和展示的本发明具体实施方式的组件可以以各种不同的配置来布置和设计,本发明还可以具有其他实施方式。[0084]因此,以下对在附图中提供的本发明的具体实施方式的详细描述并非旨在限制要求保护的本发明的范围,而是仅仅表示本发明的选定具体实施方式。基于本发明的具体实施方式,本领域技术人员在没有做出创造性劳动的前提下所获得的所有其他具体实施方式,都属于本发明保护的范围。[0085]为能进一步了解本发明的发明内容、特点及功效,兹例举以下具体实施方式,并配合附图1-3详细说明如下:[0086]具体实施方式一:[0087]基于多偏置交互的纵向联邦场景神经网络训练方法,包括如下步骤:[0088]s1、定义训练参与各方的模型结构为全连接层、dropout层,同时训练参与各方模型的底层模型的层数相同,训练参与各方包括训练发起方、训练协助方;[0089]设置训练发起方的数据特征为表示训练发起方具有m维度的数据,y为标签属性,数据已完成对齐处理;[0090]训练协助方的数据特征为表示训练协助方具有n维度的数据,数据已完成对齐处理;[0091]s2、将步骤s1的训练发起方的数据、训练协助方的数据进行前向传播方法训练,得到前向传播方法的训练结果;[0092]进一步的,步骤s2的具体实现方法包括如下步骤:[0093]s2.1、底层模型训练方法:包括训练参与各方分别计算底层模型的每一层的中间结果,处理后得到的传输偏置量训练参与各方进行交互传递,训练参与各方根据交互数据更新底层模型的偏置量,然后训练参与各方分别训练更新偏置量的底层模型,得到底层模型输出结果,进入下一步;[0094]进一步的,步骤s2.1的具体实现方法包括如下步骤:[0095]s2.1.1、设置为训练发起方的底层模型的第t层参数,为训练协助方的底层模型的第t层参数:[0096][0097][0098]其中,训练发起方的底层模型第t层参数具有i个神经元,第t+1层具有j个神经元,训练协助方的底层模型第t层参数具有l个神经元,第t+1层具有k个神经元;[0099]s2.1.2、训练发起方、训练协助方分别计算底层模型的每一层的中间结果,最后一层不做计算,第一层的中间结果计算公式为:[0100][0101][0102]其余各层的中间结果计算公式为:[0103][0104][0105]其中和为训练发起方和训练协助方的第t层中间计算结果,relu为神经网络全连接层和dropout层结构的激活函数的一个常用实例;[0106]s2.1.3、将计算得到的中间结果进行处理,处理公式为:[0107](除最后一层外的所有层中间结果均进行计算)}[0108](除最后一层外的所有层中间结果均进行计算)}[0109]其中,zb为训练发起方的传输偏置量,za为训练协助方的传输偏置量,sum_row函数的输入为矩阵类型数据,对于输入数据的每一行加和计算,trans函数的输入为矩阵类型数据,对于输入数据的每一列进行平均值计算;[0110]s2.1.4、训练发起方将zb发送给训练协助方,同时接收其发送过来的za,训练发起方将za的每一项作为加权系数,同步更新到训练发起方底层模型的模型偏置量b={bi|i=1,2,…(除最后一层外的所有层)},将za保存为本地结果[0111]训练协助方将za发送给训练发起方,同时接收其发送过来的zb,训练协助方将zb的每一项作为加权系数,同步更新到训练协助方底层模型的模型偏置量a={ai|i=1,2,…(除最后一层外的所有层)},将zb保存为本地结果[0112]第一轮训练的更新公式为:[0113]bi=bi·zai[0114]ai=ai·zbi[0115]其中,zai为za的第i项,zbi为zb的第i项;[0116]非第一轮训练的更新公式为:[0117][0118][0119]其中,为的第i项,为的第i项;[0120]s2.1.5、训练参与各方分别训练更新偏置量的底层模型,得到训练协助方底层模型输出结果αa,训练发起方底层模型输出结果αb;[0121]s2.2、交互层模型训练方法:训练参与各方根据步骤s2.1的底层模型输出结果在交互层模型基于paillier同态加密和差分噪声进行交互传递,获得交互层模型的总体中间结果作为交互层模型激活函数的输入数据,交互层模型激活函数的输出结果,进入下一步;[0122]进一步的,步骤s2.2的具体实现方法包括如下步骤:[0123]s2.2.1、训练协助方使用paillier同态加密αa,得到αa的密文数据[αa],发送给训练发起方;[0124]s2.2.2、训练发起方接收到[αa]后,进行计算,计算公式为:[0125][za]=[αa]·wa[0126]其中,[za]为加密情况下训练协助方端在交互层所计算的中间结果,wa为交互层模型对应训练协助方部分的权重;[0127]s2.2.3、训练发起方同时根据维度生成噪声εb,将[za]+εb发送给训练协助方,进行本地计算的计算公式为:[0128]zb=αb·wb[0129]其中,zb为不加密情况下训练发起方端在交互层计算的中间结果,wb则是交互层模型对应训练发起方部分的权重;[0130]s2.2.4、训练协助方计算累计噪声εacc·αa,并将接收到的密文进行解密得到za+εb,然后进行加和计算,得到的计算结果发送给训练发起方,计算公式为:[0131][0132]其中,εacc为反向传播过程中训练协助方每轮训练生成的噪声εa的加和,为含有噪声的训练协助方交互层中间结果;[0133]s2.2.5、训练发起方接收后,计算交互层总体中间结果z,计算公式为:[0134][0135]将z作为交互层激活函数的输入数据,得到交互层模型激活函数的输出结果g(z);[0136]s2.3、顶层模型训练方法:训练发起方将交互层模型激活函数的输出结果作为顶层模型的输入,进行最终的分类模型训练得到前向传播方法的训练结果[0137]s3、反向传播方法:将步骤s2得到的前向传播方法的训练结果进行反向传播方法训练,训练协助方和训练发起方分别进行模型参数的更新,完成一轮的训练;[0138]进一步的,步骤s3的具体实现方法包括如下步骤:[0139]s3.1、顶层模型训练方法:训练发起方根据前向传播方法的训练结果标签y更新顶层模型参数,计算基于顶层模型的损失δ,进行下一步;[0140]s3.2、交互层模型训练方法:训练发起方基于损失、交互层模型激活函数计算交互层激活函数的损失,训练发起方计算更新自身底层模型参数的损失,然后更新交互层模型对应训练发起方的参数,然后训练发起方、训练协助方基于paillier同态加密和差分噪声进行交互计算,得到更新的训练协助方的底层模型参数的损失,然后训练发起方更新交互层模型对应训练协助方的参数,然后发送给训练协助方,训练协助方解密收到的更新训练协助方的底层模型参数的损失进行下一步;[0141]进一步的,步骤s3.2的具体实现方法包括如下步骤:[0142]s3.2.1、训练发起方基于损失δ、交互层模型激活函数,计算交互层激活函数的损失δact;[0143]s3.2.2、训练发起方先计算底层模型部分参数的损失δbottom_b,用于更新底层模型模型参数,计算公式为:[0144]δbottom_b=δact·wb[0145]s3.2.3、基于δact更新交互层模型对应训练发起方的参数,计算公式为:[0146]wb-=η*δact·αb[0147]其中,η为设定的模型学习率;[0148]s3.2.4、训练发起方生成噪声εb,基于paillier同态加密和差分噪声进行计算,计算结果δact·[αa]+εb发送给训练协助方;[0149]s3.2.5、训练协助方将εacc加密得到[εacc],接着生成噪声εa,更新εacc+=εa,将步骤s3.2.4的计算结果解密后得到δact·αa+εb;训练协助方将[εacc]传送给给训练发起方;[0150]s3.2.6、训练发起方接收到步骤s3.2.5的结果后,首先将δact·(wa+[εacc])回传给训练协助方作为更新训练协助方的底层模型的损失,然后更新交互层模型对应训练协助方的参数wa,计算公式为:[0151][0152]s3.2.7、训练协助方解密δact·(wa+[εacc]),传给底层模型进行底层模型参数的更新;[0153]s3.3、底层模型训练方法:训练协助方解密收到的更新训练协助方的底层模型参数的损失传给底层模型,训练发起方和训练协助方分别进行底层模型参数的更新;[0154]s4、重复步骤s2和s3,直至训练结果达到精度要求或者停止条件,完成基于多偏置交互的纵向联邦场景神经网络训练。[0155]本实施方式所述的基于多偏置交互的纵向联邦场景神经网络训练,进行效果验证如下:[0156]为证明该方案安全性,首先给出方案保护的数据目标以及方案的敌手设定。不可泄漏的数据包括训练模型过程当中的原始数据(即模型的输入数据集),记作x;参与者本地的底层模型部分模型参数,记作w。除此之外,明文的中间训练结果(梯度、更新参数如wx等)也会为敌手提供有利用价值的信息,因此也要予以保护,该中间结果记作α。拟定敌手为一个好奇的协助方a,总是试图通过接收到的数据值获取其他协助方的数据信息。[0157]设双方的数据条数为n,针对求平均的方案,由于数据经过对齐处理,因此各协助方知晓训练当中的有效训练数据条数相同,相当于敌手能够知道正常的偏置传输值是经过n条数据求平均得到的。从直觉上理解,在无其他信息的情况下将一个值分解为多个准确值是困难的。[0158]这一过程可以理论衡量。计猜测一个任意实数的问题为i1,而用于计算平均值的原n条数据的问题in。那么问题in可以看作是首先猜测出其中的一项数据,再根据猜测出的数据猜测剩余的n-1项数据,即首先完成一次问题i1,再根据完成的结果继续进行in-1的问题解决。根据递归的思想,可以推出问题in的难度相当于要同时完成n-1次i1问题的求解(最后的一次由于平均值已知可直接得出)。在非离散的实数域上,没有任何额外条件的前提下猜中一个实数的概率接近于0,根据平均值推测原始数据的行为也因此随着数据条数的增多而无限接近于0,这保证了偏置值交互的求平均方案的安全性,即敌手靠偏置值获得计算中间结果的概率与直接猜测中间结果的概率等同,中间结果安全的同时也保护了原始数据和模型参数不会被反向训练或推理得出。[0159]针对该方案增加的时间开销进行分析。通信开销主要由数据发送前的处理以及发送过程组成。在通信开销分析过程中应该以忽略数据对齐、密钥与模型参数生成、明文计算代价为前提,这一部分的时间消耗可以通过事先工作完成或消耗时间相较于密文运算可忽略。而方案创新的底层模型部分新增加的偏置交互通信过程在数据传输之前采用了求和求平均的数据处理将一组数据条目混淆成了一组单值,且通过该值无法简单地回推,其安全问题并不是通过加密方法解决的,也就是说引入的新增通信为明文通信,其相较于交互层layer部分的密文通信开销存在量级差距,因此新引入的交互代价中的数据传输过程可以忽略。[0160]具体实施方式二:[0161]电子设备,包括存储器和处理器,存储器存储有计算机程序,所述的处理器执行所述计算机程序时实现所述的基于多偏置交互的纵向联邦场景神经网络训练方法的步骤。[0162]本发明的计算机装置可以是包括有处理器以及存储器等装置,例如包含中央处理器的单片机等。并且,处理器用于执行存储器中存储的计算机程序时实现上述的基于creo软件的可修改由关系驱动的推荐数据的推荐方法的步骤。[0163]所称处理器可以是中央处理单元(central processing unit,cpu),还可以是其他通用处理器、数字信号处理器(digital signal processor,dsp)、专用集成电路(application specific integrated circuit,asic)、现成可编程门阵列(field-programmable gate array,fpga)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。[0164]所述存储器可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据手机的使用所创建的数据(比如音频数据、电话本等)等。此外,存储器可以包括高速随机存取存储器,还可以包括非易失性存储器,例如硬盘、内存、插接式硬盘,智能存储卡(smart media card,smc),安全数字(secure digital,sd)卡,闪存卡(flash card)、至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。[0165]具体实施方式三:[0166]计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现所述的基于多偏置交互的纵向联邦场景神经网络训练方法。[0167]本发明的计算机可读存储介质可以是被计算机装置的处理器所读取的任何形式的存储介质,包括但不限于非易失性存储器、易失性存储器、铁电存储器等,计算机可读存储介质上存储有计算机程序,当计算机装置的处理器读取并执行存储器中所存储的计算机程序时,可以实现上述的基于creo软件的可修改由关系驱动的建模数据的建模方法的步骤。所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、u盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(rom,read-only memory)、随机存取存储器(ram,random access memory)、电载波信号、电信信号以及软件分发介质等。需要说明的是,所述计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括电载波信号和电信信号。[0168]需要说明的是,术语“第一”和“第二”等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。[0169]虽然在上文中已经参考具体实施方式对本技术进行了描述,然而在不脱离本技术的范围的情况下,可以对其进行各种改进并且可以用等效物替换其中的部件。尤其是,只要不存在结构冲突,本技术所披露的具体实施方式中的各项特征均可通过任意方式相互结合起来使用,在本说明书中未对这些组合的情况进行穷举性的描述仅仅是出于省略篇幅和节约资源的考虑。因此,本技术并不局限于文中公开的特定具体实施方式,而是包括落入权利要求的范围内的所有技术方案。









图片声明:本站部分配图来自人工智能系统AI生成,觅知网授权图片,PxHere摄影无版权图库。本站只作为美观性配图使用,无任何非法侵犯第三方意图,一切解释权归图片著作权方,本站不承担任何责任。如有恶意碰瓷者,必当奉陪到底严惩不贷!




内容声明:本文中引用的各种信息及资料(包括但不限于文字、数据、图表及超链接等)均来源于该信息及资料的相关主体(包括但不限于公司、媒体、协会等机构)的官方网站或公开发表的信息。部分内容参考包括:(百度百科,百度知道,头条百科,中国民法典,刑法,牛津词典,新华词典,汉语词典,国家院校,科普平台)等数据,内容仅供参考使用,不准确地方联系删除处理!本站为非盈利性质站点,发布内容不收取任何费用也不接任何广告!




免责声明:我们致力于保护作者版权,注重分享,被刊用文章因无法核实真实出处,未能及时与作者取得联系,或有版权异议的,请联系管理员,我们会立即处理,本文部分文字与图片资源来自于网络,部分文章是来自自研大数据AI进行生成,内容摘自(百度百科,百度知道,头条百科,中国民法典,刑法,牛津词典,新华词典,汉语词典,国家院校,科普平台)等数据,内容仅供学习参考,不准确地方联系删除处理!的,若有来源标注错误或侵犯了您的合法权益,请立即通知我们,情况属实,我们会第一时间予以删除,并同时向您表示歉意,谢谢!

相关内容 查看全部