技术领域
[0001] 本发明涉及无线通信技术领域,尤其涉及一种信息处理方法、装置、存储介质、程序产品和通信设备。
相关背景技术
[0002] 联邦学习是一种在保护数据隐私情况下的分布式模型训练技术。联邦学习主要由中心节点和客户端共同完成,其中,中心节点可下发全局模型给至少一个客户端,各个客户端可使用本地数据进行模型训练,并将本地训练的模型传输至中心节点进行聚合,在多轮迭代达到目标的精度后完成对全局模型的训练,该模型可供客户端使用,具有很好的泛化性。
[0003] 数据是人工智能(AI,Artificial Intelligence)模型训练的基础,好的数据集可以加速模型训练,同时提高模型的泛化性。此外,算力也是模型训练必不可少的基础条件。因此中心节点针对联邦学习进行客户端选择时,需选择具备符合需求的数据的客户端,同时该客户端还需具备满足模型训练的算力以保证在要求的时间内完成模型训练、并上传到中心节点。然而在移动通信网络中,无线终端的种类众多,很多终端可能具备优质数据但算力却无法满足要求,这类终端往往因为无法满足客户端的选择条件而无法参与到联邦学习的模型训练中,导致优质数据损失。
具体实施方式
[0038] 下面结合附图及具体实施例对本发明作进一步详细的说明。显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
[0039] 在本发明的描述中,需要说明的是,术语“第一”、“第二”、“第三”等仅用于描述目的,而不能理解为指示或暗示相对重要性。这些术语只是用于区分一个元件(或阈值或应用或指令或操作)和另一个元件(或阈值或应用或指令或操作)。例如,第一操作可以被称为第二操作,第二操作也可以被称为第一操作,而不脱离本发明的范围,第一操作和第二操作都是操作,只是二者并不是相同的操作而已。
[0040] 本发明实施例中的术语“和/或”指的是包括相关联的列举项目中的一个或多个的任何和全部的可能组合。还要说明的是:当用在本说明书中时,“包括/包含”指定所陈述的特征、整数、步骤、操作、元件和/或组件的存在,但是不排除一个或多个其他特征、整数、步骤、操作、元件和/或组件和/或它们的组群的存在或添加。
[0041] 本发明实施例中的步骤并不一定是按照所描述的步骤顺序进行处理,可以按照需求有选择的将步骤打乱重排,或者删除实施例中的步骤,或者增加实施例中的步骤,本发明实施例中的步骤描述只是可选的顺序组合,并不代表本发明实施例的所有步骤顺序组合,实施例中的步骤顺序不能认为是对本发明的限制。
[0042] 本发明各实施例中,终端(例如第一终端、第二终端)也可称为终端设备、用户设备(UE,User Equipment)、移动台(MS,Mobile Station)、移动终端(MT,Mobile Termina)等,是一种向用户提供语音和/或数据连通性的设备,终端可以是具有无线连接功能的手持式设备、车载设备等,例如智能手机(Mobile Phone)、口袋计算机(PPC,Pocket Personal Computer)、掌上电脑、个人数字助理(PDA,Personal Digital Assistant)、笔记本电脑、平板电脑、可穿戴设备、或者车载设备等。应理解,本公开实施例对终端所采用的具体技术和具体设备形态不做限定。
[0043] 本发明各实施例中,网络设备可以是具有无线收发功能的网络侧设备或者设置于该网络侧设备中的芯片或芯片系统。所述网络设备可以是接入网设备,该接入网设备包括但不限于:无线保真(WiFi,Wireless Fidelity)系统中的接入点(AP,Access Point)(如家庭网关、路由器、服务器、交换机、网桥等)、基站、演进型节点B(eNB,evolved Node B)、无线网络控制器(RNC,Radio Network Controller)、节点B(NB,Node B)、基站控制器(BSC,Base Station Controller)、基站收发台(BTS,base transceiver station)、家庭基站(如home evolved NodeB或home Node B,HNB)、基带单元(BBU,baseband unit)、无线中继节点、无线回传节点、或传输点(TRP,transmission and reception point,或者TP,transmission point)等。该接入网设备还可以为5G新空口(NR,new radio)系统中的gNB、传输点(TRP或TP)、5G系统中的基站的一个或一组(包括多个天线面板)天线面板,或者,可以为构成gNB或传输点的网络节点等,如基带单元(BBU)、集中式单元(CU,Central Unit)、分布式单元(DU,Distributed Unit)、或具有基站功能的路边单元(RSU,Road Side Unit)等,该集中式单元可以包括控制面(CU‑CP,Central Unit‑Control Plane)和用户面(CU‑UP,Central Unit‑User Plane)。或者,所述网络设备可以是逻辑上位于接入网设备之上的一个网络设备或网元、服务器等,如人工智能控制/控制器(AIC,Artificial Intelligence Control/Controller)或无线智能控制/控制器(RIC,Radio Intelligence Control/Controller)等,网络设备通过接入网设备与终端(如第一终端、第二终端)进行通信。
[0044] 本发明实施例提供一种信息处理方法,应用于第一终端;图1为本发明实施例的信息处理方法的流程示意图一,如图1所示,所述方法包括:
[0045] 步骤101、接收网络设备发送的第一信息,所述第一信息包括与第一模型的训练算力相关的第一需求信息以及与所述第一模型的训练数据相关的第二需求信息;
[0046] 步骤102、在满足所述第二需求信息的情况下,确定满足所述第一需求信息的一个或多个第二终端,与所述一个或多个第二终端协作训练所述第一模型;其中,所述第一终端至少用于提供所述第一模型的训练数据,所述第一模型为所述网络设备为所述第一终端分配的、用于本地训练的模型。
[0047] 本实施例中,所述第一终端与所述网络设备通信连接,至少可提供所述网络设备进行联邦学习所需的模型训练数据,所述网络设备为联邦学习的汇聚中心,也可称为联邦学习的中心节点、中心汇聚节点或汇聚节点等。所述第一模型是所述网络设备基于联邦学习任务向第一终端分配的、采用本地数据训练的模型。
[0048] 步骤101中,第一终端接收网络设备发送的第一信息,所述第一信息包括第一需求信息和第二需求信息,其中,所述第一需求信息是与第一模型的训练算力相关的需求信息,例如训练所述第一模型所需的算力的相关信息、用于确定训练所述第一模型所需算力的相关信息、或者用于第一终端判断自身是否满足训练算力需求的相关信息等;所述第二需求信息是与第一模型的训练数据相关的需求信息。例如训练所述第一模型所需的数据的相关信息、用于确定训练所述第一模型所需数据的相关信息、或者用于第一终端判断自身是否满足训练数据需求的相关信息等。
[0049] 作为一种示例,所述第一需求信息例如可包括所述第一模型的模型类型、模型大小、精度要求、训练所述第一模型所需的训练时间、算力类型、算力大小、计算时间段要求、模型适配度(第一终端的计算硬件对第一模型的匹配程度)等中的一种或多种,或者,所述第一需求信息也可包括用于第一终端匹配自身算力与所述第一模型的训练算力的相关模型信息等;所述第二需求信息例如可包括训练所述第一模型所需的数据量大小、数据分布情况等中的一种或多种,或者,所述第二需求信息也可包括用于第一终端匹配自身数据与所述第一模型的训练数据的相关模型信息等,例如用于匹配数据类型、数据量大小、数据完整性(输入、输出数据的匹配程度,即标签数据的完整性)、数据采集时间段、数据采集时长等一种或多种的匹配模型。
[0050] 在一些实施例中,所述第一需求信息也可用于指示所述第一终端向网络设备上报自身的算力情况或与第一模型的训练算力相关的情况,所述第二需求信息可用于指示所述第二终端向网络设备上报自身的数据情况或与第一模型的训练数据相关的情况。
[0051] 步骤102中,第一终端可先确定自身是否满足第二需求信息,即第一终端是否具备用于训练所述第一模型的相关数据;并在确定满足第二需求信息的情况下,确定满足第一需求信息的一个或多个第二终端,并与所述一个或多个第二终端采用协作的方式训练第一模型。可以理解,所述第二终端至少能够提供训练所述第一模型的算力,所述第二终端可称为协作终端、辅助终端等,所述第一终端与所述一个或多个第二终端可构成用于训练第一模型的协作体。
[0052] 图2为本发明实施例的信息处理方法的一种应用场景示例图,如图2所示,网络设备可与多种计算能力不同的终端进行通信,例如图2中示出的智能手机、5G智能摄像头、智能汽车等具备较强计算能力的终端,以及儿童智能手表、窄带物联网(NB‑IoT,Narrow Band Internet of Things)智能电表、NB‑IoT智能水表等计算能力相对较弱的终端。可以理解,这些终端的数据分布、计算能力各不相同,对于同时具备数据和计算能力的终端,可独立、直接参与联邦训练,而对于计算能力不足或者算力可用时间不匹配的终端(即第一终端),可在确定满足训练数据需求的情况下,通过与周边可提供算力服务的终端(即第二终端)构建协作体的方式参与联邦学习的模型训练。
[0053] 本发明实施例的信息处理方法,第一终端接收网络设备发送的与第一模型的训练算力相关的第一需求信息以及与第一模型的训练数据相关的第二需求信息,并在确定自身满足第二需求信息的情况下,与满足第一需求信息的一个或多个第二终端通过协作的方式对所述第一模型进行训练,终端可按照能力互补的原则进行组合形成协作体,共同形成参与联邦训练的客户端,使得具备优质数据的终端能够借助周边终端的计算能力完成本地模型的训练,可实现对优质数据的充分利用,避免了由于训练数据缺失导致模型收敛效率不高、泛化性不好的问题。
[0054] 在一些实施例中,所述与所述一个或多个第二终端协作训练所述第一模型,可包括:第一终端与各个第二终端进行安全验证,在验证通过的情况下向对应的第二终端传输所述第一模型对应的训练数据;和/或,第一终端对所述第一模型对应的训练数据进行脱敏处理,向各个第二终端发送脱敏处理后的训练数据。本实施例中第一终端在协作训练第一模型的过程中,增加与各个第二终端之间的相互鉴权操作和/或数据脱敏处理流程,实现了数据隐私保护。
[0055] 在本发明的一种可选实施例中,所述方法还可以包括:向所述网络设备发送第二信息,所述第二信息至少包括以下至少之一:所述第一终端对应的第一评估结果,所述第一评估结果表征与算力相关的评估结果;所述第一终端对应的第二评估结果,所述第二评估结果表征与数据相关的评估结果;所述第一终端的第一相关信息,所述第一相关信息表征与算力相关的信息;所述第一终端的第二相关信息,所述第二相关信息表征与数据相关的信息。
[0056] 本实施例中,第一终端可在接收到第一信息后,根据其中的第一需求信息和第二需求信息确定所述第二信息,并向网络设备反馈所述第二信息。
[0057] 作为一种可选的实施方式,第一终端可根据所述第一需求信息对自身算力进行评估获得所述第一评估结果,可根据所述第二需求信息对自身数据进行评估获得所述第二评估结果,向所述网络设备发送所述第一评估结果和所述第二评估结果。或者,第一终端也可直接向网络设备发送与算力相关的第一相关信息以及与数据相关的第二相关信息。
[0058] 本发明实施例的信息处理方法,第一终端与网络设备进行自身算力和数据匹配情况的交互,可由网络设备评价第一终端是否参与到联邦学习中,保障了终端的数据隐私性。
[0059] 在一些实施例中,所述第一评估结果至少表征以下至少之一:算力类型是否满足所述第一需求信息;算力大小是否满足所述第一需求信息;算力可用时间是否满足所述第一需求信息;电量信息和/或能量信息是否满足所述第一需求信息;和/或,所述第二评估结果至少表征以下至少之一:数据类型是否满足所述第二需求信息;数据量是否满足所述第二需求信息;数据完整性是否满足所述第二需求信息。本实施例中,第一终端至少可向网络设备上报算力类型、算力大小、算力可用时间、电量/能量等方面的算力评估结果,和/或,向网络设备上报数据类型(数据分布情况)、数据量、数据完整性(输入、输出数据的配对程度,即标签数据的完整性)等方面的数据评估结果,以便网络设备确定所述第一终端采用协作方式训练本地模型或者独立训练本地模型。
[0060] 在一些实施例中,所述第二需求信息可包括用于匹配数据类型、数据量大小、数据完整性、数据采集时间段、数据采集时长等方面的数据匹配模型,所述第二评估结果可包括所述第一终端通过所述数据匹配模型获得的匹配结果,所述匹配结果例如包括匹配程度,或者匹配度是否满足预设条件等。
[0061] 在一些实施例中,所述第一相关信息至少包括以下至少之一:算力类型、算力大小、算力可用时间、电量信息;和/或,所述第二相关信息至少包括以下至少之一:数据类型、数据量、数据完整性、数据采集时间、数据采集时长。本实施例中,所述第一终端也可直接向网络设备上报自身的算力信息以及自身的数据情况,所述网络设备可根据所述第一相关信息获取所述第一评估结果,和/或,根据所述第二相关信息获得所述第二评估结果。
[0062] 需要说明的是,所述第二评估结果和/或所述第二相关信息可用于所述网络设备判断所述第一终端是否能够进行本地模型训练(即是否参与联邦学习),所述第一评估结果和/或所述第一相关信息可用于所述网络设备判断所述第一终端采用协作方式训练第一模型或者独立训练第一模型。
[0063] 在一些实施例中,所述第二信息用于所述网络设备确定满足所述第一需求信息的一个或多个终端;所述确定满足所述第一需求信息的一个或多个第二终端,可以包括:接收所述网络设备发送的第一指示信息,根据所述第一指示信息确定满足所述第一需求信息的一个或多个终端;分别对所述一个或多个终端进行数据传输测试,根据测试结果确定所述一个或多个第二终端。
[0064] 本实施例中,所述第二信息可用于所述网络设备确定能够与所述第一终端协作训练第一模型的候选终端,由网络设备协助第一终端完成协作体的构建,并由所述网络设备指示第一终端能够用于构建协作体的一个或多个候选终端(即满足第一需求信息的一个或多个终端),降低了对第一终端的计算能力需求。
[0065] 作为一种可选的实施方式,所述方法还可包括:所述第一终端向所述网络设备发送第四信息,所述第四信息至少可包括以下至少之一:第一终端的计算能力信息、第一终端进行终端之间协作的能力或者设备到设备通信(D2D,Device‑to‑Device Communication)能力、第一终端的位置信息等。可以理解,所述网络设备考虑构建协作体的情况下,可先查询第一终端的相关信息,例如计算能力、协作能力或D2D通信能力、位置信息等,以便为第一终端选择满足第一需求信息的一个或多个终端。
[0066] 在另一实施例中,所述第二信息用于所述网络设备确定所述第一终端采用协作方式训练所述第一模型;所述确定满足所述第一需求信息的一个或多个第二终端,可以包括:在接收到所述网络设备发送的第二指示信息的情况下,向预设范围内的各个终端发送所述第一需求信息,接收各个终端发送的响应信息,根据各个终端的响应信息确定满足所述第一需求信息的一个或多个终端;所述第二指示信息用于指示采用协作方式训练所述第一模型;分别对所述一个或多个终端进行数据传输测试,根据测试结果确定所述一个或多个第二终端。
[0067] 本实施例中,由网络设备协助第一终端完成协作体的构建,但所述网络设备并不向第一终端指示能够用于构建协作体的一个或多个候选终端,而是由第一终端自行广播第一需求信息,根据接收到的各终端的响应信息确定能够用于构建协作体的一个或多个候选终端(即满足第一需求信息的一个或多个终端),也就是说,网络设备可决定是否允许仅具备训练数据、不具备训练算力的第一终端参与联邦学习,而第一终端可自行确定进行协作训练的第二终端,可充分利用未联网终端的算力,灵活度更高。
[0068] 在本发明的一种可选实施例中,所述分别对所述一个或多个终端进行数据传输测试,根据测试结果确定所述一个或多个第二终端,可以包括:分别与所述一个或多个终端建立数据传输链路,基于对应的数据传输链路对每个终端进行安全验证,在验证通过的情况下对每个终端进行数据传输测试,获得每个终端对应的测试结果;在第一测试结果满足所述第一需求信息对应的通信需求的情况下,确定所述第一测试结果对应的终端为第二终端;所述第一测试结果为所述一个或多个终端中任一终端对应的测试结果。
[0069] 针对网络设备辅助第一终端构建协作体的情况,第一终端在根据网络设备的第一指示信息或者根据各终端对第一需求信息的响应信息确定满足第一需求信息的一个或多个终端之后,可与各个终端建立数据传输链路,所述数据传输链路例如是D2D传输链路。考虑到终端对数据隐私的保护,在第一终端选择进行协作的第二终端时需先通过D2D通信完成对每个满足第一需求信息的终端的安全性验证,并验证通过的情况下对终端进行数据传输测试,根据数据传输测试结果是否满足相应的通信需求来确定最终用于协作训练第一模型的一个或多个第二终端。
[0070] 作为一种示例,所述响应信息可包括各个终端对应的训练时长,所述第一终端可根据各个终端对应的训练时长对各个终端进行数据传输测试。
[0071] 在一些实施例中,所述第一需求信息对应的通信需求例如包括与传输速率相关的需求、训练的总时长需求等,示例性的,第一终端可根据与对应的第二终端之间的数据传输量(D,单位为比特bit)、传输速率(a,单位为bps)、待传输的模型参数大小(M,单位为bit)、训练时长(t,单位为秒s)等来确定对应的第一测试结果,例如所述第一测试结果为本地训练时长(T),T=(M+D)/a+t+M/a,可在本地训练时长不超过总时长需求与空口通信时间之差的情况下确定对应的终端可用于协作训练第一模型。
[0072] 在一些实施例中,所述方法还可包括:第一终端向各个第二终端发送第三指示信息,用于指示与对应的第二终端协作训练所述第一模型。本实施例中,第一终端在确定满足第一需求信息的一个或多个第二终端后,可向第二终端发送指示进行协作体构建的信息。
[0073] 在本发明的一种可选实施例中,所述确定满足所述第一需求信息的一个或多个第二终端,可以包括:向预设范围内的各个终端发送所述第一需求信息,接收各个终端发送的响应信息,根据各个终端的响应信息确定满足所述第一需求信息的一个或多个终端;分别对所述一个或多个终端进行数据传输测试,根据测试结果确定所述一个或多个第二终端。
[0074] 本实施例中,第一终端可自主构建协作体。所述第一终端可不向所述网络设备发送前述实施例中的第二信息,直接在确定自身满足第二需求信息的情况下,向预设范围内的各个终端广播所述第一需求信息,根据各个终端发送的响应信息确定能够用于构建协作体的一个或多个候选终端,并根据各候选终端对应的数据传输测试结果确定一个或多个第二终端,降低了终端与网络设备之间的通信需求,且能够充分利用未联网终端的算力。
[0075] 在一些实施例中,所述确定满足所述第一需求信息的一个或多个第二终端之后,所述方法还可以包括:基于所述第一信息确定第三信息,向所述网络设备发送所述第三信息;所述第三信息至少包括以下至少之一:所述第一终端与所述一个或多个第二终端协作后的第一评估结果,所述第一评估结果表征与算力相关的评估结果;所述第一终端与所述一个或多个第二终端协作后的第二评估结果,所述第二评估结果表征与数据相关的评估结果;所述第一终端与所述一个或多个第二终端协作后的第一相关信息,所述第一相关信息表征与算力相关的信息;所述第一终端与所述一个或多个第二终端协作后的第二相关信息,所述第二相关信息表征与数据相关的信息。
[0076] 本实施例考虑第一终端自主构建协作体的情况,第一终端在确定与所述一个或多个第二终端采用协作方式训练第一模型之后,可与所述一个或多个第二终端作为一个整体向网络设备反馈对应的数据相关信息和/或算力相关信息。可以理解,对于算力不足或者算力可用时间不匹配的终端,可先自行按照网络设备下发的需求信息构建用于训练本地模型的协作体,在完成协作体构建后将构建的协作体作为一个新的客户端向中心汇聚节点反馈对应的数据能力和/或计算能力。
[0077] 在一些实施例中,所述方法还可以包括:向所述网络设备发送第一通知,所述第一通知用于向所述网络设备通知采用协作方式训练所述第一模型。本实施例针对第一终端自主构建协作体的情况,第一终端还可向网络设备上报自身将以协作方式训练第一模型,以便网络设备能够及时区分采用协作方式训练本地模型的客户端以及独立训练本地模型的客户端。
[0078] 在一些实施例中,所述与所述一个或多个第二终端协作训练所述第一模型,可以包括:对所述第一模型进行模型分割,获得多个第二模型;基于所述一个或多个第二终端获得各个第二模型的训练结果,根据所有第二模型的训练结果获得所述第一模型的训练结果。
[0079] 本实施例针对第一终端自主构建协作体的情况,第一终端可在协作训练第一模型时对第一模型进行模型分割,将分割后的多个第二模型下发至所述一个或多个第二终端进行模型训练,根据各个第二终端对各自的第二模型的训练结果获得所述第一模型的训练结果。
[0080] 作为一种示例,第一终端与一个第二终端协作训练第一模型,所述第一终端可根据D2D的数据传输能力和/或计算能力,将第一模型进行分割,分割后的部分模型由所述第二终端完成训练,部分模型则由第一终端自身完成训练,从而在数据传输和计算能力之间达到平衡。或者,第一终端与多个第二终端协作训练第一模型,所述第一终端可将第一模型分割后分别由多个第二终端协助训练,各第二终端将分配的第二模型训练完成后,由第一终端进行汇总后发送至网络设备。需要说明的是,第一模型分割获得的各个第二模型对训练算力的需求分别小于或等于第一终端及对应的第二终端的算力,同时,对应的第二模型的模型参数及训练数据的传输需求小于或等于第一终端与对应的第二终端之间的D2D传输带宽,从而实现算力与传输带宽之间的均衡。
[0081] 在一些实施例中,所述分别对所述一个或多个终端进行数据传输测试,根据测试结果确定所述一个或多个第二终端,可以包括:分别与所述一个或多个终端建立数据传输链路,基于对应的数据传输链路对每个终端进行安全验证,在验证通过的情况下对每个终端进行数据传输测试,获得每个终端对应的测试结果;在第一测试结果满足所述第一需求信息对应的通信需求的情况下,确定所述第一测试结果对应的终端为第二终端;所述第一测试结果为所述一个或多个终端中任一终端对应的测试结果。
[0082] 针对第一终端自主构建协作体的情况,第一终端在根据预设范围内的各个终端对第一需求信息的响应信息确定满足第一需求信息的一个或多个终端之后,可与各个终端建立数据传输链路,所述数据传输链路例如是D2D传输链路。考虑到终端对数据隐私的保护,在第一终端选择进行协作的第二终端时需先通过D2D通信完成对每个满足第一需求信息的终端的安全性验证,并验证通过的情况下对终端进行数据传输测试,根据数据传输测试结果是否满足相应的通信需求来确定最终用于协作训练第一模型的一个或多个第二终端。
[0083] 本发明实施例还提供一种信息处理方法,应用于网络设备;图3为本发明实施例的信息处理方法的流程示意图二,如图3所示,所述方法包括:
[0084] 步骤201、向各个终端发送第一信息,所述第一信息包括与各个终端对应的模型的训练算力相关的第一需求信息以及与各个终端对应的模型的训练数据相关的第二需求信息;其中,各个终端对应的模型为所述网络设备向各个终端分配的、用于本地训练的模型;
[0085] 步骤202、在确定第一终端满足所述第二需求信息的情况下,确定满足所述第一需求信息的一个或多个终端,向所述第一终端发送第一指示信息;所述第一指示信息用于向所述第一终端指示满足所述第一需求信息的一个或多个终端,所述一个或多个终端用于所述第一终端确定一个或多个第二终端、与所述一个或多个第二终端协作训练所述第一终端对应的第一模型;或者,在确定第一终端满足所述第二需求信息的情况下,向所述第一终端发送第二指示信息,所述第二指示信息用于指示所述第一终端采用协作方式训练所述第一模型,所述第一需求信息用于所述第一终端确定所述一个或多个第二终端;其中,所述第一终端至少用于提供所述第一模型的训练数据。
[0086] 在一些实施例中,所述网络设备可预先获取各个终端的相关信息,例如终端是否支持联邦学习或者是否支持模型训练、终端的计算能力等,向具备相关能力的各个终端发送所述第一信息。
[0087] 步骤202中,所述网络设备在确定第一终端满足第二需求信息的情况下,可针对所述第一终端确定满足第一需求信息的一个或多个终端,并向所述第一终端指示所述一个或多个终端,以使所述第一终端根据所述一个或多个终端确定用于协作训练第一模型的一个或多个第二终端;或者,可仅向第一终端指示采用协作方式训练第一模型(即指示第一终端构建用于训练第一模型的协作体),由第一终端自行确定用于协作训练第一模型的一个或多个第二终端。
[0088] 需要说明的是,本实施例中,所述第一终端至少为满足所述第二需求信息的终端,即所述第一终端至少能够提供训练所述第一模型的训练数据。
[0089] 在本发明的一种可选实施例中,所述方法还可以包括:接收各个终端发送的第二信息,所述第二信息至少包括以下至少之一:各个终端对应的第一评估结果,所述第一评估结果表征与算力相关的评估结果;各个终端对应的第二评估结果,所述第二评估结果表征与数据相关的评估结果;各个终端的第一相关信息,所述第一相关信息表征与算力相关的信息;各个终端的第二相关信息,所述第二相关信息表征与数据相关的信息。
[0090] 在一些实施例中中,所述第一评估结果至少表征以下至少之一:算力类型是否满足所述第一需求信息;算力大小是否满足所述第一需求信息;算力可用时间是否满足所述第一需求信息;电量信息是否满足所述第一需求信息;和/或,所述第二评估结果至少表征以下至少之一:数据类型是否满足所述第二需求信息;数据量是否满足所述第二需求信息;数据完整性是否满足所述第二需求信息。
[0091] 在一些实施例中,所述第一相关信息至少包括以下至少之一:算力类型、算力大小、算力可用时间、电量信息;和/或,所述第二相关信息至少包括以下至少之一:数据类型、数据量、数据完整性、数据采集时间、数据采集时长。
[0092] 在本发明的一种可选实施例中,所述方法还可以包括:基于所述第二信息确定各个终端对应的第一评估结果和第二评估结果;在终端对应的第一评估结果表征终端不满足所述第一需求信息、且所述终端对应的第二评估结果表征终端满足所述第二需求信息的情况下,确定所述终端为所述第一终端。
[0093] 作为一种可选的实施方式,所述第二信息可包括各个终端的第一相关信息和/或各个终端的第二相关信息;所述基于所述第二信息确定各个终端对应的第一评估结果和第二评估结果,可包括:基于各个终端的第一相关信息确定各个终端对应的第一评估结果,和/或,基于各个终端的第二相关信息确定各个终端对应的第二评估结果。
[0094] 本实施例中,所述网络设备可根据终端对应的第一评估结果确定终端是否具备训练本地模型的训练数据,根据终端对应的第二评估结果确定终端是否具备训练本地模型的训练算力,在确定终端具备训练数据但不具备训练算力的情况下,认为终端为第一终端,可进一步确定所述第一终端对应的满足第一需求信息的一个或多个终端或者向所述第一终端发送用于指示采用协作方式训练第一模型的第二指示信息。
[0095] 本实施例的信息处理方法,网络设备可根据终端上报的数据相关信息和计算相关信息选择执行联邦学习的客户端,可优先选择具备训练数据且计算能力充足的终端,次优选择具备训练数据但计算能力较弱或者计算时间不匹配的终端,同时可考虑协助这些终端构建相应的协作体以训练本地模型。
[0096] 在本发明的一种可选实施例中,所述确定满足所述第一需求信息的一个或多个终端,可以包括:基于所述第二信息和所述第一终端的位置信息确定满足所述第一需求信息的一个或多个终端。本实施例中,所述一个或多个终端位于所述第一终端的预设范围内。
[0097] 作为一种可选的实施方式,所述网络设备可向所述第一终端的预设范围内的各个终端发送终端能力查询请求,获取各个终端的相关能力信息,例如是否支持D2D通信、是否能够提供算力服务、所提供的的算力服务是否能够满足第一模型的第一需求信息等,根据查询结果确定满足第一需求信息的一个或多个终端。
[0098] 在本发明的一种可选实施例中,所述方法还可以包括:接收所述第一终端发送的第三信息,所述第三信息至少包括以下至少之一:所述第一终端与所述一个或多个第二终端协作后的第一评估结果,所述第一评估结果表征与算力相关的评估结果;所述第一终端与所述一个或多个第二终端协作后的第二评估结果,所述第二评估结果表征与数据相关的评估结果;所述第一终端与所述一个或多个第二终端协作后的第一相关信息,所述第一相关信息表征与算力相关的信息;所述第一终端与所述一个或多个第二终端协作后的第二相关信息,所述第二相关信息表征与数据相关的信息。
[0099] 本实施例中,第一终端可自主构建协作体,并以构建的协作体为整体向网络设备反馈第一评估结果、第二评估结果、第一相关信息、第二相关信息等。
[0100] 在本发明的一种可选实施例中,所述方法还可以包括:接收所述第一终端发送的第一通知,所述第一通知用于通知所述第一终端采用协作方式训练所述第一模型。本实施例中,在第一终端自主构建协作体的情况下,第一终端可向网络设备上报自身状态,以便网络设备区分执行联邦学习的客户端中哪些客户端是独立终端、哪些客户端是协作体。
[0101] 下面结合具体的应用场景对本发明实施例的信息处理方案进行详细说明。
[0102] 为了提高终端与网络设备之间的通信性能,通信系统可利用终端侧的数据进行无线信道传输优化相关模型的训练,参与训练的终端例如可包括固定终端、移动终端、增强移动带宽(eMBB,Enhanced Mobile Broadband)业务类型终端、超高可靠与低时延通信(uRLLC,Ultra‑reliable and Low Latency Communications)业务类型终端等,终端类型多样,业务场景多样,从而保证训练得到的模型具备较强的泛化性。
[0103] 图4为本发明实施例的信息处理方案的一种设计示意图,如图4所示,中心汇聚节点可向各客户端下发全局模型,各客户端可使用本地数据进行模型训练,并将本地训练完成获得的本地模型上传至中心汇聚节点,中心汇聚节点对各客户端上传的本地模型进行聚合获得最终训练完成的全局模型。这些客户端中,一部分客户端可独立训练本地模型,而另一部分客户端可通过构建协作体的方式训练模型。参照图4,客户端2可与多个协作方(协作方1……协作方n)构建协作体,其中,客户端2可提供模型训练所需的数据,或者可提供所需数据和部分算力,客户端2可多个协作方进行数据交互与模型交互,多个协作方分别提供算力以训练客户端2所需训练模型的部分模型,由此客户端2可与多个协作体共同完成本地模型训练。
[0104] 图5为本发明实施例的信息处理方案的一种实施架构示意图,如图5所示,中心汇聚节点进行客户端选择后可基于所选择的各客户端进行模型训练,其中,在客户端选择阶段,首先向各客户端(终端1、终端2、……终端n等)下发模型训练需求(即第一需求信息)和数据需求(即第二需求信息),然后进行终端能力感知,此过程中各终端进行数据匹配度和计算能力上报,以便中心汇聚节点进行客户端选择,针对数据匹配度高但计算能力不足或者计算时间不匹配的终端,中心汇聚节点可指示其构建协作体,如图5中的终端2和终端3,其中终端2作为主终端可提供优质数据和较低算力,终端3作为辅终端可提供较高算力,两者进行D2D通信以协作训练模型;模型训练阶段,中心汇聚节点与各客户端(包括独立终端与协作体等)进行交互以训练联邦学习模型,并在模型评估的基础上对各客户端训练的联邦学习模型进行聚合,获得最终的联邦学习模型。
[0105] 图6为本发明实施例的信息处理方案的一种流程示意图,如图6所示,中心汇聚节点向各终端下发模型训练需求(第一需求信息)和数据需求(第二需求信息),接收各终端上报的数据匹配度和计算能力信息(即第二信息),首先判断终端对应的数据匹配度是否低于门限,若低于门限,则确定该终端不参与训练;若不低于门限,则继续判断终端的计算能力是否满足模型训练需求,若满足模型训练需求,则确定该终端参与训练,且独自完成本地模型训练;若不满足模型训练需求,则启动协作体构建流程,继续判断是否有合适的终端提供算力服务,若存在合适终端,则对应终端组建协作体,以协作体的方式参与训练,否则该终端不参与训练。由此中心汇聚节点可确定参与训练的客户端集合,执行联邦学习模型训练。
[0106] 在一示例中,参照图5和图6,在客户端选择阶段,中心汇聚节点可向各终端下发模型训练需求(第一需求信息)和数据匹配模型(第二需求信息),其中模型训练需求可包括训练的模型类型、模型大小、训练时间、精度要求、算力类型、算力大小、计算时间段要求等,数据匹配模型可用于匹配终端本地数据与模型训练所需的数据,匹配结果例如包括数据匹配度,可反应终端本地数据的数据量大小、数据分布等情况与联邦学习模型训练需求的匹配度。随后,终端可上报数据匹配度和计算能力,中心汇聚节点根据终端上报的数据匹配度和计算能力进行客户端选择,其中,优先选择数据匹配度高和计算能力足够的终端,其次选择数据匹配度高但计算能力弱的终端,同时可考虑为计算能力弱的终端构建协作体。
[0107] 在一些示例中,终端可根据模型训练需求判断自身算力是否可满足模型训练需求,具体判断条件包括但不限于:算力类型是否匹配需求,和/或,算力大小是否满足,和/或,算力可用时间,和/或,能量/电量信息。若终端确定满足模型训练需求,则可向中心汇聚节点上报可提供足够的算力参与模型训练,可选的,可将计算能力信息也上报给中心汇聚节点,其中计算能力信息可包括算力类型、算力大小、算力可用时间、电量信息等。若终端确定不满足模型训练需求,则可向中心汇聚节点上报计算能力不满足需求,同时也可上报相应的计算能力信息,以便中心汇聚节点进行客户端选择。
[0108] 图7为本发明实施例的构建协作体的一种流程示意图,如图7所示,在协作体构建过程中,中心汇聚节点(即前述网络设备)可先查询终端能力,根据查询能力确定终端是否支持D2D通信,若终端不支持则确定不能构建协作体(即构建协作体失败);若终端支持D2D通信则进一步查询终端位置,并根据终端位置选择一个邻近终端,判断该邻近终端是否支持D2D通信,若支持则获取该邻近终端的计算服务能力,根据对应的计算服务能力判断是否可以提供算力服务、且所提供的算力服务是否满足模型训练需求,若均满足则将该邻近终端加入到候选列表(即满足第一需求信息的一个或多个终端)中;若该邻近终端不支持D2D通信、不能提供算力服务、或者所提供的的算力服务不满足相关需求,则判断是否查找到最后一个邻近终端或者继续查找另一邻近终端,重复上述过程,直到找到最后一个邻近终端,根据所查找到的符合要求的邻近终端形成候选列表;进一步地,从候选列表中选择其中一个候选终端,指示终端与该候选终端建立D2D通信连接,判断终端之间是否鉴权通过,若通过则继续判断对应的通信速率是否满足通信需求,若满足则指示终端与该候选终端构建协作体;若终端之间鉴权未通过或者对应的通信速率不满足通信需求,则继续从候选列表中选择另一候选终端,重复上述过程,直到遍历所述候选列表或者找到合适的候选终端(即一个或多个第二终端)与第一终端构建协作体。
[0109] 图8为本发明实施例的构建协作体的另一种流程示意图,如图8所示,在协作体构建过程中,终端可通过D2D方式广播模型训练需求(即第一需求信息),接收附近的终端对模型训练需求的响应,响应中可携带评估的训练时长,用于第一终端判断总训练时长是否满足模型训练需求;收到终端响应说明对应的终端能够满足需求且愿意提供服务,因此可将收到响应的终端加入到候选列表(即满足第一需求信息的一个或多个终端)中,对于候选列表中的任一候选终端,终端可与该候选终端建立D2D的数据传输链路,相互鉴权通过后测试传输速率。具体地,终端可与该候选终端建立D2D连接,判断终端之间是否鉴权通过,若通过则继续判断对应的通信速率是否满足通信需求,例如结合训练时长综合判断本地训练总时长是否满足联邦学习要求,若满足则终端可与该候选终端构建协作体;若终端之间鉴权未通过或者对应得通信速率不满足通信需求,则继续从候选列表中选择另一候选终端,重复上述过程,直到遍历所述候选列表或者找到合适的候选终端构建协作体。
[0110] 图9为本发明实施例的信息处理方法的一种应用流程示意图,如图9所示,RIC作为中心汇聚节点(即前述实施例中的网络设备),RIC可在多个基站范围内选择进行联邦学习的终端,并通过基站(例如gNB)与各终端进行交互,计算能力不足的终端可自主构建协作体,图9中UE1为数据优质但算力较小的终端,UE2为具备较大算力的终端。该流程具体可包括:
[0111] 步骤301、RIC向基站发送联邦训练需求和数据需求。本示例中,RIC与基站之间的E2接口可新增模型训练需求和数据需求的指示消息,其中,模型训练需求可包括待训练模型的模型类型、模型大小、训练时间、精度要求、算力类型、算力大小、计算时间段要求等,数据需求可通过数据匹配模型、数据量大小来指示,所述数据匹配模型的匹配结果可反映终端本地数据的数据量大小、数据分布等情况与联邦学习模型训练需求的匹配度。
[0112] 步骤302、基站将联邦训练需求(即第一需求信息)和数据需求(第二需求信息)通过空口发送具备相关能力的终端,例如UE1和UE2。本示例中,基站可通过终端能力信息获取流程预先获得终端的相关能力,例如模型训练的能力、计算能力等。
[0113] 步骤303、各终端进行数据匹配度评估和计算能力评估,获得对应的数据匹配度和计算能力(即第二信息)。
[0114] 步骤304、各终端通过空口向基站上报数据匹配度和计算能力。
[0115] 步骤305、基站通过E2接口向RIC发送各终端的数据匹配度和计算能力。本示例中,RIC与基站之间的E2接口可新增消息,以传输数据评估结果、算力评估结果、计算能力信息等。
[0116] 步骤306、RIC根据数据匹配基站和计算能力确定参与联邦学习的客户端。
[0117] 步骤307、对于数据匹配度高但计算能力不足的终端,可触发协作体构建。
[0118] 步骤308、RIC通过E2接口向基站发送协作体构建指示,其中可包含候选终端的相关信息,例如终端标识信息(AMF NGAP UE ID或C‑RNTI等)。
[0119] 步骤309、基站通过空口向该UE1发送协作体构建指示,可包括协作体中主终端标识、辅终端标识等,例如UE1和UE2的AMF NGAP UE ID或C‑RNTI等。
[0120] 步骤310、UE1与UE2通过D2D通信构建协作体。示例性的,UE1可通过sidelink信道或者其他D2D通信方式(例如蓝牙、wifi等)广播模型训练需求,若接收到预设范围内的UE反馈的响应,例如UE2的响应,可与收到响应的终端建立协作体。
[0121] 步骤311、协作体构建完成后,UE1作为主终端,以协作体的方式参与联邦学习训练过程。示例性的,UE1可通过基站向RIC反馈构建结果,并参与到联邦学习中,具体通过与UE2之间的D2D通信进行协作训练。
[0122] 步骤312、协作训练过程中,UE1可作为主终端提供训练数据,UE2作为辅终端提供训练算力,两者通过D2D链路交互模型参数和数据,完成本地模型训练。
[0123] 图10为本发明实施例的信息处理方法的另一种应用流程示意图,如图10所示,基站作为中心汇聚节点,本示例中UE1为数据优质但算力较小的终端,UE2为具备较大算力的终端。参照图10,该流程包括:
[0124] 步骤401、基站通过空口向各终端下发模型训练需求和数据需求,其中模型训练需求可包括待训练模型的模型类型、模型大小、训练时间、精度要求、算力类型、算力大小、计算时间段要求等,数据需求可通过数据匹配模型的方式指示,该数据匹配模型的匹配结果可反应终端本地数据的数据量大小、数据分布等情况与联邦学习模型训练需求的匹配度。
[0125] 步骤402、各终端进行数据匹配度评估和计算能力评估,获得数据匹配度和计算能力。
[0126] 步骤403、各终端将数据匹配度和计算能力上报给基站。
[0127] 步骤404、基站根据数据匹配度和计算能力确定参与联邦学习的客户端。
[0128] 步骤405、对于计算能力不足但数据匹配度高的终端,可触发协作体构建。
[0129] 步骤406、基站通过空口向UE1发送协作体构建指示,其中可包含终端标识信息等。
[0130] 步骤407至步骤408可参照前述步骤310至步骤312所述,为节省篇幅,这里不再赘述。
[0131] 图11为本发明实施例的信息处理方法的又一种应用流程示意图,如图11所示,本示例中由基站辅助终端进行协作体构建,具体流程可包括:
[0132] 步骤501至步骤505可参照前述步骤401至步骤405所述,为节省篇幅,这里不再赘述。
[0133] 步骤506、基站通过空口获取各终端能力和终端位置,其中终端能力例如包括终端的D2D通信能力、计算能力等。
[0134] 步骤507、基站根据终端的D2D通信能力、位置、计算能力,形成候选列表。
[0135] 步骤508、基站从候选列表中选择候选终端,指示主终端(UE1)与该候选终端建立D2D通信连接。
[0136] 步骤509、UE1与候选终端(UE2)建立D2D通信链路,并确定D2D通信速率。
[0137] 步骤510、UE1向基站上报D2D通信速率。
[0138] 步骤511、基站综合计算能力、D2D通信能力判断是否可以构建协作体,例如通过计算时延、数据传输时延等信息综合判断候选终端是否符合模型训练要求,如果符合,则执行步骤512,否则选择下一个候选终端,并重复步骤步骤508至步骤511。
[0139] 步骤512、基站向UE1发送协作体构建指示。
[0140] 步骤513、UE1收到协作体构建指示后,与UE2构建协作体。示例性的,UE1可与UE2建立D2D通信(例如sidelink、蓝牙、wifi等),作为一个整体参与联邦训练。
[0141] 步骤514、UE1通过协作体的方式进行联邦学习训练。
[0142] 步骤515、UE1与UE2进行协作训练。示例性的,UE1作为主终端可通过sidelink信道或者其他D2D通信方式(例如蓝牙、wifi等)将模型训练需求和训练数据发给辅终端(UE2)进行模型训练,辅终端训练完成后通过主终端将模型参数发给基站进行模型汇聚。
[0143] 本示例通过构建终端协作体,能够将具备优质数据的终端尽可能地加入到联邦学习中,解决了数据优质但算力不足的终端无法参与联邦学习的问题,可提高联邦学习中模型训练的精度和效率,同时提高终端算力的利用率。
[0144] 本发明实施例还提供一种信息处理装置,可应用于前述第一终端。图12为本发明实施例的信息处理装置的组成结构示意图一,如图12所示,信息处理装置600包括第一通信单元601和第一处理单元602;其中,
[0145] 所述第一通信单元601,用于接收网络设备发送的第一信息,所述第一信息包括与第一模型的训练算力相关的第一需求信息以及与所述第一模型的训练数据相关的第二需求信息;
[0146] 所述第一处理单元602,用于在满足所述第二需求信息的情况下,确定满足所述第一需求信息的一个或多个第二终端,与所述一个或多个第二终端协作训练所述第一模型;其中,所述第一终端至少用于提供所述第一模型的训练数据,所述第一模型为所述网络设备向所述第一终端分配的、用于本地训练的模型。
[0147] 在本发明的一种可选实施例中,所述第一通信单元601,还用于向所述网络设备发送第二信息,所述第二信息至少包括以下至少之一:所述第一终端对应的第一评估结果,所述第一评估结果表征与算力相关的评估结果;所述第一终端对应的第二评估结果,所述第二评估结果表征与数据相关的评估结果;所述第一终端的第一相关信息,所述第一相关信息表征与算力相关的信息;所述第一终端的第二相关信息,所述第二相关信息表征与数据相关的信息。
[0148] 在本发明的一种可选实施例中,所述第二信息用于所述网络设备确定满足所述第一需求信息的一个或多个终端;所述第一通信单元601,还用于接收所述网络设备发送的第一指示信息;所述第一处理单元602,用于根据所述第一指示信息确定满足所述第一需求信息的一个或多个终端;以及分别对所述一个或多个终端进行数据传输测试,根据测试结果确定所述一个或多个第二终端。
[0149] 在本发明的一种可选实施例中,所述第二信息用于所述网络设备确定所述第一终端采用协作方式训练所述第一模型;所述第一通信单元601,还用于在接收到所述网络设备发送的第二指示信息的情况下,向预设范围内的各个终端发送所述第一需求信息,接收各个终端发送的响应信息;所述第二指示信息用于指示采用协作方式训练所述第一模型;所述第一处理单元602,用于根据各个终端的响应信息确定满足所述第一需求信息的一个或多个终端;以及分别对所述一个或多个终端进行数据传输测试,根据测试结果确定所述一个或多个第二终端。
[0150] 在本发明的一种可选实施例中,所述第一通信单元601,还用于向预设范围内的各个终端发送所述第一需求信息,接收各个终端发送的响应信息;所述第一处理单元602,用于根据各个终端的响应信息确定满足所述第一需求信息的一个或多个终端;以及分别对所述一个或多个终端进行数据传输测试,根据测试结果确定所述一个或多个第二终端。
[0151] 在本发明的一种可选实施例中,所述第一处理单元602,还用于基于所述第一信息确定第三信息;所述第一通信单元601,还用于向所述网络设备发送所述第三信息;所述第三信息至少包括以下至少之一:所述第一终端与所述一个或多个第二终端协作后的第一评估结果,所述第一评估结果表征与算力相关的评估结果;所述第一终端与所述一个或多个第二终端协作后的第二评估结果,所述第二评估结果表征与数据相关的评估结果;所述第一终端与所述一个或多个第二终端协作后的第一相关信息,所述第一相关信息表征与算力相关的信息;所述第一终端与所述一个或多个第二终端协作后的第二相关信息,所述第二相关信息表征与数据相关的信息。
[0152] 在本发明的一种可选实施例中,所述第一通信单元601,还用于向所述网络设备发送第一通知,所述第一通知用于向所述网络设备通知采用协作方式训练所述第一模型。
[0153] 在本发明的一种可选实施例中,所述第一处理单元602,用于对所述第一模型进行模型分割,获得多个第二模型;基于所述一个或多个第二终端获得各个第二模型的训练结果,根据所有第二模型的训练结果获得所述第一模型的训练结果。
[0154] 在本发明的一种可选实施例中,所述第一评估结果至少表征以下至少之一:算力类型是否满足所述第一需求信息;算力大小是否满足所述第一需求信息;算力可用时间是否满足所述第一需求信息;电量信息和/或能量信息是否满足所述第一需求信息;和/或,所述第二评估结果至少表征以下至少之一:数据类型是否满足所述第二需求信息;数据量是否满足所述第二需求信息;数据完整性是否满足所述第二需求信息。
[0155] 在本发明的一种可选实施例中,所述第一相关信息至少包括以下至少之一:算力类型、算力大小、算力可用时间、电量信息;和/或,所述第二相关信息至少包括以下至少之一:数据类型、数据量、数据完整性、数据采集时间、数据采集时长。
[0156] 在本发明的一种可选实施例中,所述第一处理单元602,用于分别与所述一个或多个终端建立数据传输链路,基于对应的数据传输链路对每个终端进行安全验证,在验证通过的情况下对每个终端进行数据传输测试,获得每个终端对应的测试结果;在第一测试结果满足所述第一需求信息对应的通信需求的情况下,确定所述第一测试结果对应的终端为第二终端;所述第一测试结果为所述一个或多个终端中任一终端对应的测试结果。
[0157] 本发明实施例中,所述信息处理装置600中的第一处理单元602,在实际应用中均可由第一终端中的中央处理器(CPU,Central Processing Unit)、数字信号处理器(DSP,Digital Signal Processor)、微控制单元(MCU,Microcontroller Unit)或可编程门阵列(FPGA,Field-Programmable Gate Array)实现;所述信息处理装置600中的第一通信单元601,在实际应用中可通过通信模组(包含:基础通信套件、操作系统、通信模块、标准化接口和协议等)及收发天线实现。
[0158] 本发明实施例还提供一种信息处理装置,可应用于前述网络设备。图13为本发明实施例的信息处理装置的组成结构示意图二,如图13所示,信息处理装置700包括第二通信单元701和第二处理单元702;其中,
[0159] 所述第二通信单元701,用于向各个终端发送第一信息,所述第一信息包括与各个终端对应的模型的训练算力相关的第一需求信息以及与各个终端对应的模型的训练数据相关的第二需求信息;其中,各个终端对应的模型为网络设备向各个终端分配的、用于本地训练的模型;
[0160] 所述第二处理单元702,用于在确定第一终端满足所述第二需求信息的情况下,确定满足所述第一需求信息的一个或多个终端;所述第二通信单元701,还用于向所述第一终端发送第一指示信息;所述第一指示信息用于向所述第一终端指示满足所述第一需求信息的一个或多个终端,所述一个或多个终端用于所述第一终端确定一个或多个第二终端、与所述一个或多个第二终端协作训练所述第一终端对应的第一模型;或者,
[0161] 所述第二通信单元701,还用于在确定第一终端满足所述第二需求信息的情况下,向所述第一终端发送第二指示信息,所述第二指示信息用于指示所述第一终端采用协作方式训练所述第一模型,所述第一需求信息用于所述第一终端确定所述一个或多个第二终端;其中,所述第一终端至少用于提供所述第一模型的训练数据。
[0162] 在本发明的一种可选实施例中,所述第二通信单元701,还用于接收各个终端发送的第二信息,所述第二信息至少包括以下至少之一:各个终端对应的第一评估结果,所述第一评估结果表征与算力相关的评估结果;各个终端对应的第二评估结果,所述第二评估结果表征与数据相关的评估结果;各个终端的第一相关信息,所述第一相关信息表征与算力相关的信息;各个终端的第二相关信息,所述第二相关信息表征与数据相关的信息。
[0163] 在本发明的一种可选实施例中,所述第二处理单元702,还用于基于所述第二信息确定各个终端对应的第一评估结果和第二评估结果;在终端对应的第一评估结果表征终端不满足所述第一需求信息、且所述终端对应的第二评估结果表征终端满足所述第二需求信息的情况下,确定所述终端为所述第一终端。
[0164] 在本发明的一种可选实施例中,所述第二处理单元702,用于基于所述第二信息和所述第一终端的位置信息确定满足所述第一需求信息的一个或多个终端。
[0165] 在本发明的一种可选实施例中,所述第二通信单元701,还用于接收所述第一终端发送的第三信息,所述第三信息至少包括以下至少之一:所述第一终端与所述一个或多个第二终端协作后的第一评估结果,所述第一评估结果表征与算力相关的评估结果;所述第一终端与所述一个或多个第二终端协作后的第二评估结果,所述第二评估结果表征与数据相关的评估结果;所述第一终端与所述一个或多个第二终端协作后的第一相关信息,所述第一相关信息表征与算力相关的信息;所述第一终端与所述一个或多个第二终端协作后的第二相关信息,所述第二相关信息表征与数据相关的信息。
[0166] 在本发明的一种可选实施例中,所述第二通信单元701,还用于接收所述第一终端发送的第一通知,所述第一通知用于通知所述第一终端采用协作方式训练所述第一模型。
[0167] 在本发明的一种可选实施例中,所述第一评估结果至少表征以下至少之一:算力类型是否满足所述第一需求信息;算力大小是否满足所述第一需求信息;算力可用时间是否满足所述第一需求信息;电量信息是否满足所述第一需求信息;和/或,所述第二评估结果至少表征以下至少之一:数据类型是否满足所述第二需求信息;数据量是否满足所述第二需求信息;数据完整性是否满足所述第二需求信息。
[0168] 在本发明的一种可选实施例中,所述第一相关信息至少包括以下至少之一:算力类型、算力大小、算力可用时间、电量信息;和/或,所述第二相关信息至少包括以下至少之一:数据类型、数据量、数据完整性、数据采集时间、数据采集时长。
[0169] 本发明实施例中,所述信息处理装置700中的第二处理单元702,在实际应用中均可由所述网络设备中的CPU、DSP、MCU或FPGA实现;所述信息处理装置700中的第二通信单元701,在实际应用中可通过通信模组(包含:基础通信套件、操作系统、通信模块、标准化接口和协议等)及收发天线实现。
[0170] 需要说明的是:上述实施例提供的信息处理装置在进行信息处理时,仅以上述各程序模块的划分进行举例说明,实际应用中,可以根据需要而将上述处理分配由不同的程序模块完成,即将装置的内部结构划分成不同的程序模块,以完成以上描述的全部或者部分处理。另外,上述实施例提供的信息处理装置与信息处理方法实施例属于同一构思,其具体实现过程详见方法实施例,这里不再赘述。
[0171] 本发明实施例还提供一种通信设备。图14为本发明实施例的通信设备的硬件结构示意图,示例性的,通信设备800可以是前述实施例中的网络设备或第一终端。图14所示的通信设备800包括:至少一个处理器801、存储器802和至少一个网络接口803。通信设备800中的各个组件通过总线系统804耦合在一起。可理解,总线系统804用于实现这些组件之间的连接通信。总线系统804除包括数据总线之外,还包括电源总线、控制总线和状态信号总线。但是为了清楚说明起见,在图14中将各种总线都标为总线系统804。
[0172] 可以理解,存储器802可以是易失性存储器或非易失性存储器,也可包括易失性和非易失性存储器两者。其中,非易失性存储器可以是只读存储器(ROM,Read Only Memory)、可编程只读存储器(PROM,Programmable Read‑Only Memory)、可擦除可编程只读存储器(EPROM,Erasable Programmable Read‑Only Memory)、电可擦除可编程只读存储器(EEPROM,Electrically Erasable Programmable Read‑Only Memory)、磁性随机存取存储器(FRAM,ferromagnetic random access memory)、快闪存储器(Flash Memory)、磁表面存储器、光盘、或只读光盘(CD‑ROM,Compact Disc Read‑Only Memory);磁表面存储器可以是磁盘存储器或磁带存储器。易失性存储器可以是随机存取存储器(RAM,Random Access Memory),其用作外部高速缓存。通过示例性但不是限制性说明,许多形式的RAM可用,例如静态随机存取存储器(SRAM,Static Random Access Memory)、同步静态随机存取存储器(SSRAM,Synchronous Static Random Access Memory)、动态随机存取存储器(DRAM,Dynamic Random Access Memory)、同步动态随机存取存储器(SDRAM,Synchronous Dynamic Random Access Memory)、双倍数据速率同步动态随机存取存储器(DDRSDRAM,Double Data Rate Synchronous Dynamic Random Access Memory)、增强型同步动态随机存取存储器(ESDRAM,Enhanced Synchronous Dynamic Random Access Memory)、同步连接动态随机存取存储器(SLDRAM,SyncLink Dynamic Random Access Memory)、直接内存总线随机存取存储器(DRRAM,Direct Rambus Random Access Memory)。本发明实施例描述的存储器802旨在包括但不限于这些和任意其它适合类型的存储器。
[0173] 本发明实施例中的存储器802用于存储各种类型的数据以支持通信设备800的操作。这些数据的示例包括:用于在通信设备800上操作的任何计算机程序,比如本发明实施例的信息处理方法的程序等。
[0174] 上述本发明实施例揭示的方法可以应用于处理器801中,或者由处理器801实现。处理器801可能是一种集成电路芯片,具有信号的处理能力。在实现过程中,上述方法的各步骤可以通过处理器801中的硬件的集成逻辑电路或者软件形式的指令完成。上述的处理器801可以是通用处理器、DSP,或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。处理器801可以实现或者执行本发明实施例中的公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者任何常规的处理器等。结合本发明实施例所公开的方法的步骤,可以直接体现为硬件译码处理器执行完成,或者用译码处理器中的硬件及软件模块组合执行完成。软件模块可以位于存储介质中,该存储介质位于存储器802,处理器
801读取存储器802中的信息,结合其硬件完成前述方法的步骤。
[0175] 在示例性实施例中,通信设备800可以被一个或多个应用专用集成电路(ASIC,Application Specific Integrated Circuit)、DSP、可编程逻辑器件(PLD,Programmable Logic Device)、复杂可编程逻辑器件(CPLD,Complex Programmable Logic Device)、FPGA、通用处理器、控制器、MCU、微处理器(Microprocessor)、或其他电子元件实现,用于执行前述方法。
[0176] 在示例性实施例中,本发明实施例还提供了一种计算机可读存储介质,例如包括计算机程序的存储器802,上述计算机程序可由通信设备800的处理器801执行,以完成前述方法所述步骤。计算机可读存储介质可以是FRAM、ROM、PROM、EPROM、EEPROM、Flash Memory、磁表面存储器、光盘、或CD‑ROM等存储器;也可以是包括上述存储器之一或任意组合的各种设备,如移动电话、计算机、平板设备、个人数字助理等。
[0177] 在示例性实施例中,本发明实施例还提供了一种计算机程序产品,包括计算机程序,所述计算机程序可由通信设备800的处理器801执行,以完成前述任一方法所述步骤。
[0178] 本申请所提供的几个方法实施例中所揭露的方法,在不冲突的情况下可以任意组合,得到新的方法实施例。
[0179] 本申请所提供的几个产品实施例中所揭露的特征,在不冲突的情况下可以任意组合,得到新的产品实施例。
[0180] 本申请所提供的几个方法或设备实施例中所揭露的特征,在不冲突的情况下可以任意组合,得到新的方法实施例或设备实施例。
[0181] 在本申请所提供的几个实施例中,应该理解到,所揭露的设备和方法,可以通过其它的方式实现。以上所描述的设备实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,如:多个单元或组件可以结合,或可以集成到另一个系统,或一些特征可以忽略,或不执行。另外,所显示或讨论的各组成部分相互之间的耦合、或直接耦合、或通信连接可以是通过一些接口,设备或单元的间接耦合或通信连接,可以是电性的、机械的或其它形式的。
[0182] 上述作为分离部件说明的单元可以是、或也可以不是物理上分开的,作为单元显示的部件可以是、或也可以不是物理单元,即可以位于一个地方,也可以分布到多个网络单元上;可以根据实际的需要选择其中的部分或全部单元来实现本实施例方案的目的。
[0183] 另外,在本发明各实施例中的各功能单元可以全部集成在一个处理单元中,也可以是各单元分别单独作为一个单元,也可以两个或两个以上单元集成在一个单元中;上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能单元的形式实现。
[0184] 本领域普通技术人员可以理解:实现上述方法实施例的全部或部分步骤可以通过程序指令相关的硬件来完成,前述的程序可以存储于一计算机可读取存储介质中,该程序在执行时,执行包括上述方法实施例的步骤;而前述的存储介质包括:移动存储设备、只读存储器(ROM,Read‑Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
[0185] 或者,本发明上述集成的单元如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实施例的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机、服务器、或者网络设备等)执行本发明各个实施例所述方法的全部或部分。而前述的存储介质包括:移动存储设备、ROM、RAM、磁碟或者光盘等各种可以存储程序代码的介质。
[0186] 以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以所述权利要求的保护范围为准。