首页> 中国专利> 更新中心方的合作式学习方法、存储介质、终端和系统

更新中心方的合作式学习方法、存储介质、终端和系统

摘要

本发明提供了一种动态更新中心方的合作式学习方法、存储介质、终端和系统,系统包括数据提供方确定模块,性能评估模块,优选模块,根据评估性能自主选择网路中最优数据提供方作为中心服务器并运行中心程序;通信传输模块;动态更新学习模块,通过初始状态判断进入合作式学习任务还是中心服务器更新,若是,开始合作式学习任务并预测中心服务器风险;若否,则进入中心服务器更新,判断合作式学习任务继续、恢复或中止,直至任务结束。相比现有技术,本方案提供了中心服务器宕机情况下快速选取参与训练任务中最优数据提供方为中心服务器的方法,能快速衔接,以便合作式学习可以继续运行。

著录项

  • 公开/公告号CN112686368A

    专利类型发明专利

  • 公开/公告日2021-04-20

    原文格式PDF

  • 申请/专利号CN202011455627.8

  • 发明设计人 戴晶帼;杨旭;陈光;苏新铎;叶鹏;

    申请日2020-12-10

  • 分类号G06N3/04(20060101);G06N3/08(20060101);G06N20/00(20190101);

  • 代理机构33324 杭州创智卓英知识产权代理事务所(普通合伙);

  • 代理人唐超文

  • 地址 510000 广东省广州市高新技术产业开发区科学城科林路9、11号

  • 入库时间 2023-06-19 10:41:48

说明书

技术领域

本发明涉及多方数据联合处理,具体涉及一种动态更新中心方的合作式学习方法、存储介质、终端和系统。

背景技术

在传统的集中式深度学习中,中心服务器需要收集大量的用户数据用于训练神经网络模型(简称模型),但是由于数据传输的网络通信开销较大、用户数据归属权以及用户数据隐私性等问题,用于进行深度学习的用户数据往往难以获取。

现有技术中也出现了一些解决上述问题的解决方式,如联邦学习,联邦学习是一种新兴的机器学习框架,其采取了另一种训练机器学习模型的方式:在一轮训练中,每一个用户利用其私有数据训练本地模型,然后将本地模型的参数上传至中心服务器,由中心服务器将所有用户的参数进行融合生成全局模型的参数,再将全局模型的参数下发至用户,用户根据全局模型参数对本地模型进行更新,如此循环若干轮训练直至全局模型收敛,训练结束。

综上,联邦(机器)学习作为一种新兴的分布式机器学习范式,在该范式下,各个计算实体(移动/边缘设备、跨地域的机构)在中心服务器(例如,服务提供商)的协调下共同训练一个机器学习模型。由于数据始终驻留在计算实体本地,联邦学习降低了传统集中式机器学习的隐私风险和数据转移成本。作为一种新型的人工智能基础技术,联邦学习近几年已经得到学术界和工业界的广泛关注,成为机器学习发展和应用的新趋势。

基于这种技术,联邦学习能够在用户的私有训练数据不离开本地的前提下实现多个用户共同进行机器学习模型训练,完成指定的学习任务,如:图像分类、文本预测等,解决了传统的集中式机器学习中用户数据难以获取的问题。

但是,在联邦学习中也存在着一些安全隐患。一旦中心服务器宕机,则需要重头再来,进行各方训练,再集合数据至新的中心服务器,这样,成本高,时间长。具体的,联邦学习中一次模型训练通常包含多个迭代轮次,每一个迭代轮次包含模型分发、模型计算、模型聚合和模型更新四个步骤(当计算实体数量大时可能包含实体选择步骤)。模型分发指中心服务器将最新模型分发给各个参与节点;模型计算指参与节点依据最新模型和本地数据计算后获得模型更新量或梯度;模型聚合指参与节点将计算后的模型更新量或梯度汇聚到中心服务器;模型更新指中心服务器依据聚合后的模型更新量或梯度更新全局模型。模型训练过程不断重复以上四个步骤,直至全局模型收敛(即该模型在标准测试集的精度达到理想值)。在已有联邦学习框架(例如TensorFlow Federated、FATE)中,上述步骤中的模型分发与模型聚合普遍采用Hub-and-spoke模式,在该模式下,中心服务器作为唯一的模型分发者和聚合者,与参与节点间周期性的产生大量的模型通信。在实际的部署环境中,中心服务器和各个参与节点通常是跨地域分布的,它们之间的网络是跨域公共网络的一部分,具有带宽受限、异构动态等特点。因而,频繁且大量的模型通信产生的通信开销是联邦学习训练效率的主要瓶颈。

由此可见,一般是从通信高效的算法层面研究压缩方法来降低模型通信的数据量,但是这些方法可能会导致模型质量降低。而对于中心服务,宕机情况下难于快速选取参与合作式学习任务中的最优数据提供方,不能快速衔接,导致合作式学习的模型聚合无法继续运行,这是目前急需解决的问题。

发明内容

为了克服现有技术的不足,本发明的目的在于提供一种动态更新中心方的合作式学习方法、可读存储介质、终端和系统,其能解决上述问题。

一种动态更新中心方的合作式学习方法,方法包括以下步骤:

S1各数据提供方准备就绪,任务发起方发起任务;

S2各数据提供方提供合作式学习任务中使用的数据,通过网络连接状态获得当前可用的数据提供方;

S3对可用的数据提供方通过指标评估其当前性能;

S4通过比较数据提供方的性能选择最优数据提供方作为中心服务器,运行中心程序;

S5中心服务器与所有可用数据提供方、即客户端建立连接。

S6判断当前任务是否处于任务初始状态,若是,合作式学习任务开始,流程转入步骤S7a;若否,则当前处于合作式任务进行状态,流程转入步骤S7b;

S7a合作式学习任务开始后,任务流程如下:7a1)中心服务器初始化模型参数;7a2)中心服务器向客户端分发模型;7a3)各客户端使用其本地数据进行模型训练;7a4)各客户端将训练完成的模型加密发送给中心服务器,在中心服务器进行模型聚合;聚合完成后保存本次模型信息并发送至公共空间,对中心服务器的稳定性进行预测并进入流程步骤S8;

S7b中心服务器进行状态任务流程包括:7b1)判断当前中心服务器是否进行更新;7b2)若是,前一轮任务的中心服务器发生异常,在新选择的最优中心服务器上从公共空间读取模型信息,恢复合作式学习任务;若否,此时中心服务器异常风险已被排除,合作式学习任务继续;7b3)一次模型聚合完成后判断是否满足合作式学习任务停止条件,若满足停止条件,进入流程步骤S9,若不满足停止条件,对中心服务器的稳定性进行预测,进入流程步骤S8;

S8对中心服务器的稳定性进行预测,若系统不稳定,中心服务器异常,中止本轮任务并回到流程步骤S2,重新选择中心服务器并转入S7a;若系统稳定,合作式学习任务继续,流程转入S7b,重复上述过程直至满足任务停止条件,进入流程步骤S9;

S9满足任务停止条件,任务结束。

优选的,步骤S3中的指标包括算力、带宽、内存。

优选的,在步骤S8中,使用概率图模型对中心服务器可靠性分析以实现对其稳定性预测。

本发明还提供了一种计算机可读存储介质,其上存储有计算机指令,所述计算机指令运行时执行前述方法的步骤。

本发明还提供了一种终端,包括存储器和处理器,所述存储器上储存有注册图片和能够在所述处理器上运行的计算机指令,所述处理器运行所述计算机指令时执行前述方法的步骤。

本发明还提供了一种基于动态更新中心方的合作式学习系统,系统的中心服务器与各数据提供方电讯连接,并运行前述的步骤,系统包括:

数据提供方确定模块,通过网络连接状态确定可用数据提供方;

性能评估模块,通过算力、带宽、内存等参数评估数据提供方的性能;

优选模块,根据评估性能自主选择网路中最优数据提供方作为中心服务器并运行中心程序;

通信传输模块,中心服务器与所有可用数据提供方、即客户端建立连接;

动态更新学习模块,通过初始状态判断进入合作式学习任务还是中心服务器更新,若是,开始合作式学习任务并预测中心服务器风险;若否,则进入中心服务器更新,判断合作式学习任务继续、恢复或中止,直至任务结束。

相比现有技术,本发明的有益效果在于:本方案提供了中心服务器宕机情况下快速选取参与合作式学习任务中最优数据提供方为中心服务器的方法,能快速衔接,以便模型训练可以继续运行。

附图说明

图1为本发明动态更新中心方的合作式学习方法流程图。

具体实施方式

为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明的一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。

应当理解,本说明书中所使用的“系统”、“装置”、“单元”和/或“模组”是用于区分不同级别的不同组件、元件、部件、部分或装配的一种方法。然而,如果其他词语可实现相同的目的,则可通过其他表达来替换所述词语。

如本说明书和权利要求书中所示,除非上下文明确提示例外情形,“一”、“一个”、“一种”和/或“该”等词并非特指单数,也可包括复数。一般说来,术语“包括”与“包含”仅提示包括已明确标识的步骤和元素,而这些步骤和元素不构成一个排它性的罗列,方法或者设备也可能包含其它的步骤或元素。

本说明书中使用了流程图用来说明根据本说明书的实施例的系统所执行的操作。应当理解的是,前面或后面操作不一定按照顺序来精确地执行。相反,可以按照倒序或同时处理各个步骤。同时,也可以将其他操作添加到这些过程中,或从这些过程移除某一步或数步操作。

在经济、文化、教育、医疗、公共管理等各行各业充斥的大量信息数据,对其进行例如数据分析、数据挖掘、以及趋势预测等的数据处理分析在越来越多场景中得到广泛应用。其中,通过数据合作的方式可以使多个数据拥有方获得更好的数据处理结果。例如,可以通过多方合作式学习来获得更为准确的模型参数。

在一些实施例中,动态更新中心方的合作式学习的方法可以应用于在保证各方数据安全的情况下,各方协同训练机器学习模型供多方使用的场景。在这个场景中,多个数据方拥有自己的数据,他们想共同使用彼此的数据来统一建模(例如,分类模型、线性回归模型、逻辑回归模型等),但并不想各自的数据(尤其是隐私数据)被泄露。例如,互联网储蓄机构A拥有一批用户数据,银行B拥有另一批用户数据,基于A和B的用户数据确定的训练样本集可以训练得到性能更好的机器学习模型。A和B都愿意通过彼此的用户数据共同参与模型训练,但因为一些原因A和B不愿意自己的用户数据信息遭到泄露,或者至少不愿意让对方知道自己的用户数据信息。

在一些实施例中,可以采用联邦学习的方法进行合作式学习。联邦学习(Federated Learning)可以在多参与方或多计算节点之间开展高效率的机器学习。联邦学习可以使得多方数据在训练样本不出本地的情况下进行模型训练,只传递训练好的模型或者是计算梯度,这使得各方持有的训练样本的隐私性得到了保护。

在一些实施例中,联邦学习常应用于模型计算量大、参数多的情况。在该场景的实施例中,由于联邦学习过程中数据传输量大,因而通讯传输的压力较大。因此,在采用联邦学习的场景中,往往需要采用一定的方法降低传输过程中的通讯压力。

在本说明书的一些实施例中,模型进行每一次迭代更新的过程中,可以采用中心服务器更新的合作式学习任务判断(包括训练得到的模型梯度值或模型参数)进行压缩。具体地,通过更新后的任务恢复及继续,可以使得客户端模型训练不中断,无需重新训练,从而降低通讯压力。同时,对中心服务器出现异常的情况进行风险预测,保证了模型的稳定性。

一种动态更新中心方的合作式学习方法,方法包括以下步骤。

S1各数据提供方准备就绪,任务发起方发起任务。

S2各数据提供方提供合作式学习任务中使用的数据,通过网络连接状态获得当前可用的数据提供方。

S3对可用的数据提供方通过指标评估其当前性能。

S4通过比较数据提供方的性能选择最优数据提供方作为中心服务器,运行中心程序。

S5中心服务器与所有可用数据提供方、即客户端建立连接。

S6判断当前任务是否处于任务初始状态,若是,合作式学习任务开始,流程转入步骤S7a。若否,则当前处于合作式任务进行状态,流程转入步骤S7b。

S7a合作式学习任务开始后,任务流程如下:

7a1)中心服务器初始化模型参数。例如:在使用网络net数据前,中心服务器需要初始化模型参数,如线性回归模型中的权重和偏差。从MXNet导入init模块。该模块提供了模型参数初始化的各种方法。这里的init是initializer的缩写形式。通过init.Normal(sigma=0.01)指定权重参数每个元素将在初始化时随机采样于均值为0、标准差为0.01的正态分布。偏差参数默认会初始化为零。

7a2)中心服务器向客户端分发模型。

7a3)各客户端使用其本地数据进行模型训练。

7a4)各客户端将训练完成的模型加密发送给中心服务器,在中心服务器进行模型聚合。聚合完成后保存本次模型信息并发送至公共空间,对中心服务器的稳定性进行预测并进入流程步骤S8。

S7b中心服务器进行状态任务流程包括:

7b1)判断当前中心服务器是否进行更新。

7b2)若是,前一轮任务的中心服务器发生异常,在新选择的最优中心服务器上从公共空间读取模型信息,恢复合作式学习任务。若否,此时中心服务器异常风险已被排除,合作式学习任务继续。

7b3)一次模型聚合完成后判断是否满足合作式学习任务停止条件,若满足停止条件,进入流程步骤S9,若不满足停止条件,对中心服务器的稳定性进行预测,进入流程步骤S8。

S8对中心服务器的稳定性进行预测,若系统不稳定,中心服务器异常,中止本轮任务并回到流程步骤S2,重新选择中心服务器并转入S7a。若系统稳定,合作式学习任务继续,流程转入S7b,重复上述过程直至满足任务停止条件,进入流程步骤S9。

S9满足任务停止条件,任务结束。

其中,步骤S3中的指标包括算力、带宽、内存。

进一步的,在步骤S7a中,模型参数初始化采用标准为常规要求:

(1)参数不能全部初始化为0,也不能全部初始化同一个值;

(2)最好保证参数初始化的均值为0,正负交错,正负参数大致上数量相等。

常见的几种初始化方法是按照“正态分布随机初始化——对应为normal”和按照“均匀分布随机初始化——对应为uniform”,不再赘述,此外还有如:

①正态化的Glorot初始化——glorot_normal,其采用Glorot正态分布初始化器,也称为Xavier正态分布初始化器。它从以0为中心,标准差为stddev=sqrt(2/(fan_in+fan_out))的截断正态分布中抽取样本,其中fan_in是权值张量中的输入单位的数量,fan_out是权值张量中的输出单位的数量。标准化的Glorot初始化——glorot_uniform,Glorot均匀分布初始化器,也称为Xavier均匀分布初始化器。它从[-limit,limit]中的均匀分布中抽取样本,其中limit是sqrt(6/(fan_in+fan_out)),fan_in是权值张量中的输入单位的数量,fan_out是权值张量中的输出单位的数量。

②Kaiming初始化,也称之为he初始化,也称之为msra初始化:a正态化的kaiming初始化——he_normalHe正态分布初始化器。它从以0为中心,标准差为stddev=sqrt(2/fan_in)的截断正态分布中抽取样本,其中fan_in是权值张量中的输入单位的数量,在keras中的实现为keras.initializers.he_normal(seed=None)。b标准化化的kaiming初始化——he_uniform,He均匀方差缩放初始化器。它从[-limit,limit]中的均匀分布中抽取样本,其中limit是sqrt(6/fan_in),其中fan_in是权值张量中的输入单位的数量。keras.initializers.he_uniform(seed=None)。

③lecun初始化,a标准化的kaiming初始化——lecun_uniform,LeCun均匀初始化器keras.initializers.lecun_uniform(seed=None)。它从[-limit,limit]中的均匀分布中抽取样本,其中limit是sqrt(3/fan_in),fan_in是权值张量中的输入单位的数量。b正态化的kaiming初始化——lecun_normal,LeCun正态分布初始化器keras.initializers.lecun_normal(seed=None)。它从以0为中心,标准差为stddev=sqrt(1/fan_in)的截断正态分布中抽取样本,其中fan_in是权值张量中的输入单位的数量。

④Batch Normalization,BN是将输入的数据分布变成高斯分布,这样可以保证每一层神经网络的输入保持相同分布。随着网络层数的增加,分布逐渐发生偏移,之所以收敛慢,是因为整体分布往非线性函数取值区间的上下限靠近。这会导致反向传播时梯度消失。BN就是通过规范化的手段,把每层神经网络任意神经元这个输入值的分布强行拉回到均值0方差1的标准正态分布,使得激活输入值落入非线性函数中比较敏感的区域。可以让梯度变大,学习收敛速度快,能大大加快收敛速度。Scale and Shift作用γ和β。γ和β是学习到的参数,他们可以让标准正态分布变得更高/更胖和向左右偏移。

在步骤S8中,使用概率图模型对中心服务器可靠性分析以实现对其稳定性预测。其中,概率图模型是一类用图形模式表达基于概率相关关系的模型的总称。概率图模型结合概率论与图论的知识,利用图来表示与模型有关的变量的联合概率分布。常见的概率图模型包括贝叶斯网络、马尔可夫网络和隐马尔可夫网络,本方案可以采用任一模型即可。

本发明还提供了一种计算机可读存储介质,其上存储有计算机指令,所述计算机指令运行时执行前述方法的步骤。其中,所述方法请参见前述部分的详细介绍,此处不再赘述。

本领域普通技术人员可以理解上述实施例的各种方法中的全部或部分步骤是可以通过程序来指令相关的硬件来完成,该程序可以存储于计算机可读存储介质中,计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。

本发明还提供了一种终端,包括存储器和处理器,所述存储器上储存有数据提供方信息和能够在所述处理器上运行的计算机指令,所述处理器运行所述计算机指令时执行前述方法的步骤。其中,所述方法请参见前述部分的详细介绍,此处不再赘述。

一种基于动态更新中心方的合作式学习系统,所述系统用于使得中心服务器与各数据提供方电讯连接,系统包括:

数据提供方确定模块,通过网络连接状态确定可用数据提供方;

性能评估模块,通过算力、带宽、内存等参数评估数据提供方的性能;

优选模块,根据评估性能自主选择网路中最优数据提供方作为中心服务器并运行中心程序;

通信传输模块,中心服务器与所有可用数据提供方、即客户端建立连接。

动态更新学习模块,通过初始状态判断进入合作式学习任务还是中心服务器更新,若是,开始合作式学习任务并预测中心服务器风险;若否,则进入中心服务器更新,判断合作式学习任务继续、恢复或中止,直至任务结束。

本发明的重点即中心服务器更新后的合作式学习任务状态,该部分主要运行前序方法中的步骤S7a及步骤S7b,系统在执行上述方法的过程中,客户端模型训练不会中断,无需重新训练,且能保证中心服务器的快速更新及异常后的快速恢复,直至完成学习任务。

当理解,本说明书一个或多个实施中的所述系统及其模块可以利用各种方式来实现。例如,在一些实施例中,系统及其模块可以通过硬件、软件或者软件和硬件的结合来实现。其中,硬件部分可以利用专用逻辑来实现;软件部分则可以存储在存储器中,由适当的指令执行系统,例如微处理器或者专用设计硬件来执行。本领域技术人员可以理解上述的方法和系统可以使用计算机可执行指令和/或包含在处理器控制代码中来实现,例如在诸如磁盘、CD或DVD-ROM的载体介质、诸如只读存储器(固件)的可编程的存储器或者诸如光学或电子信号载体的数据载体上提供了这样的代码。本申请的系统及其模块不仅可以有诸如超大规模集成电路或门阵列、诸如逻辑芯片、晶体管等的半导体、或者诸如现场可编程门阵列、可编程逻辑设备等的可编程硬件设备的硬件电路实现,也可以用例如由各种类型的处理器所执行的软件实现,还可以由上述硬件电路和软件的结合(例如,固件)来实现。

需要说明的是,不同实施例可能产生的有益效果不同,在不同的实施例里,可能产生的有益效果可以是以上任意一种或几种的组合,也可以是其他任何可能获得的有益效果。

需要注意的是,以上对于处理设备及其模块的描述,仅为描述方便,并不能把本申请限制在所举实施例范围之内。可以理解,对于本领域的技术人员来说,在了解该系统的原理后,可能在不背离这一原理的情况下,对各个模块进行任意组合,或者构成子系统与其他模块连接。

上文已对基本概念做了描述,显然,对于本领域技术人员来说,上述详细披露仅仅作为示例,而并不构成对本申请的限定。虽然此处并没有明确说明,本领域技术人员可能会对本申请进行各种修改、改进和修正。该类修改、改进和修正在本申请中被建议,所以该类修改、改进、修正仍属于本申请示范实施例的精神和范围。

同时,本申请使用了特定词语来描述本申请的实施例。如“一个实施例”、“一实施例”、和/或“一些实施例”意指与本申请至少一个实施例相关的某一特征、结构或特点。因此,应强调并注意的是,本说明书中在不同位置两次或多次提及的“一实施例”或“一个实施例”或“一个替代性实施例”并不一定是指同一实施例。此外,本申请的一个或多个实施例中的某些特征、结构或特点可以进行适当的组合。

此外,本领域技术人员可以理解,本申请的各方面可以通过若干具有可专利性的种类或情况进行说明和描述,包括任何新的和有用的工序、机器、产品或物质的组合,或对他们的任何新的和有用的改进。相应地,本申请的各个方面可以完全由硬件执行、可以完全由软件(包括固件、常驻软件、微码等)执行、也可以由硬件和软件组合执行。以上硬件或软件均可被称为“数据块”、“模块”、“引擎”、“单元”、“组件”或“系统”。此外,本申请的各方面可能表现为位于一个或多个计算机可读介质中的计算机产品,该产品包括计算机可读程序编码。

计算机存储介质可能包含一个内含有计算机程序编码的传播数据信号,例如在基带上或作为载波的一部分。该传播信号可能有多种表现形式,包括电磁形式、光形式等,或合适的组合形式。计算机存储介质可以是除计算机可读存储介质之外的任何计算机可读介质,该介质可以通过连接至一个指令执行系统、装置或设备以实现通讯、传播或传输供使用的程序。位于计算机存储介质上的程序编码可以通过任何合适的介质进行传播,包括无线电、电缆、光纤电缆、RF、或类似介质,或任何上述介质的组合。

本申请各部分操作所需的计算机程序编码可以用任意一种或多种程序语言编写,包括面向对象编程语言如Java、Scala、Smalltalk、Eiffel、JADE、Emerald、C++、C#、VB.NET、Python等,常规程序化编程语言如C语言、VisualBasic、Fortran2003、Perl、COBOL2002、PHP、ABAP,动态编程语言如Python、Ruby和Groovy,或其他编程语言等。该程序编码可以完全在用户计算机上运行、或作为独立的软件包在用户计算机上运行、或部分在用户计算机上运行部分在远程计算机运行、或完全在远程计算机或处理设备上运行。在后种情况下,远程计算机可以通过任何网络形式与用户计算机连接,比如局域网(LAN)或广域网(WAN),或连接至外部计算机(例如通过因特网),或在云计算环境中,或作为服务使用如软件即服务(SaaS)。

此外,除非权利要求中明确说明,本申请所述处理元素和序列的顺序、数字字母的使用、或其他名称的使用,并非用于限定本申请流程和方法的顺序。尽管上述披露中通过各种示例讨论了一些目前认为有用的发明实施例,但应当理解的是,该类细节仅起到说明的目的,附加的权利要求并不仅限于披露的实施例,相反,权利要求旨在覆盖所有符合本申请实施例实质和范围的修正和等价组合。例如,虽然以上所描述的系统组件可以通过硬件设备实现,但是也可以只通过软件的解决方案得以实现,如在现有的处理设备或移动设备上安装所描述的系统。

同理,应当注意的是,为了简化本申请披露的表述,从而帮助对一个或多个发明实施例的理解,前文对本申请实施例的描述中,有时会将多种特征归并至一个实施例、附图或对其的描述中。但是,这种披露方法并不意味着本申请对象所需要的特征比权利要求中提及的特征多。实际上,实施例的特征要少于上述披露的单个实施例的全部特征。

一些实施例中使用了描述成分、属性数量的数字,应当理解的是,此类用于实施例描述的数字,在一些示例中使用了修饰词“大约”、“近似”或“大体上”来修饰。除非另外说明,“大约”、“近似”或“大体上”表明所述数字允许有±20%的变化。相应地,在一些实施例中,说明书和权利要求中使用的数值参数均为近似值,该近似值根据个别实施例所需特点可以发生改变。在一些实施例中,数值参数应考虑规定的有效数位并采用一般位数保留的方法。尽管本申请一些实施例中用于确认其范围广度的数值域和参数为近似值,在具体实施例中,此类数值的设定在可行范围内尽可能精确。

针对本申请引用的每个专利、专利申请、专利申请公开物和其他材料,如文章、书籍、说明书、出版物、文档等,特此将其全部内容并入本申请作为参考。与本申请内容不一致或产生冲突的申请历史文件除外,对本申请权利要求最广范围有限制的文件(当前或之后附加于本申请中的)也除外。需要说明的是,如果本申请附属材料中的描述、定义、和/或术语的使用与本申请所述内容有不一致或冲突的地方,以本申请的描述、定义和/或术语的使用为准。

最后,应当理解的是,本申请中所述实施例仅用以说明本申请实施例的原则。其他的变形也可能属于本申请的范围。因此,作为示例而非限制,本申请实施例的替代配置可视为与本申请的教导一致。相应地,本申请的实施例不仅限于本申请明确介绍和描述的实施例。

还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个......”限定的要素,并不排除在包括所述要素的过程、方法、商品或者设备中还存在另外的相同要素。

本领域技术人员应明白,本申请的实施例可提供为方法、装置、系统或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。

最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。

去获取专利,查看全文>

相似文献

  • 专利
  • 中文文献
  • 外文文献
获取专利

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号