首页 / 多文档摘要生成方法、装置、设备、存储介质及程序产品

多文档摘要生成方法、装置、设备、存储介质及程序产品实质审查 发明

技术领域

[0001] 本申请涉及自然语言处理领域,尤其涉及一种多文档摘要生成方法、装置、设备、存储介质及程序产品。

相关背景技术

[0002] 多文档摘要生成是一种重要的自然语言处理任务,其目标是将同一主题或不同主题下的多篇文档的主要内容通过信息压缩技术提炼成一个简洁的文档,即文档摘要。由于可以帮助用户快速获取大量文档的核心信息,提高信息处理的效率,多文档摘要生成在办公、科研等领域有着非常广泛的应用。例如,针对不同调研机构对某个公司发表的多份研报,利用人工智能手段高效地总结出多份研报的摘要,等等。
[0003] 目前,多文档摘要生成通常是将多个文档拼接成一个长文本,再通过大语言模型等人工智能手段对长文本进行摘要生成,得到多文档摘要。然而,通过这种方式得到的多文档摘要的准确性较差,例如遗漏多个文档中的重要信息。

具体实施方式

[0053] 这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本申请相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本申请的一些方面相一致的装置和方法的例子。
[0054] 术语“包括”、“包含”或者其任何其它变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、产品或者设备不仅包括那些要素,而且还包括没有明确列出的其它要素,或者是还包括为这种过程、方法、产品或者设备所固有的要素。在没有更多限制的情况下,并不排除在包括所述要素的过程、方法、产品或者设备中还存在另外的相同或等同要素。例如若使用到第一,第二等词语用来表示名称,而并不表示任何特定的顺序。
[0055] 随着互联网技术的高速发展,网络已经成为获取信息资讯的一个重要渠道。然而网络信息呈现出内容冗余、数量庞大的特点,从大量的文档数据中获取有效信息是极为困难的。文档摘要技术可以对文档数据进行压缩,将篇幅较长的文本内容缩为篇幅较短的摘要,对于文档数据的利用极为关键。
[0056] 多文档摘要生成是文档摘要技术中的热门问题,它可以基于同一主题的多个文档生成一份摘要,从而实现对多个文档内容的有效总结。然而,目前的多文档摘要生成方法是将多个文档通过随机拼接等方式组合成一个长文本进行处理,再利用类似单个文档的处理方法针对长文本生成摘要,这种方式得到的摘要容易遗漏原始文档的信息,准确性较差。
[0057] 针对上述问题,发明人经研究后发现,上述多文档摘要的生成过程将多个文档当成一个长文本处理,考虑词语粒度和句子粒度的联系,忽略了多文档场景下文档之间的宏观关系,容易在生成摘要的过程中遗漏文档之间的关系所代表的信息。基于此,本申请提供一种多文档摘要生成方法、装置、设备、存储介质及程序产品。该方法通过获取多个文档之间的文档关系图,可以基于文档关系图提取文档之间的关系特征,根据提取到的关系特征和每个文档的文本特征生成摘要。这样,在文档的文本特征的基础上,利用多个文档间的关系生成多文档摘要,可以减少对文档信息的遗漏,提升了多文档摘要生成的逻辑性和准确性。
[0058] 下面以具体的实施例对本申请的技术方案以及本申请的技术方案如何解决上述技术问题进行详细说明。下面这几个具体的实施例可以相互结合,对于相同或相似的概念或过程可能在某些实施例中不再赘述。下面将结合附图,对本申请的实施例进行描述。
[0059] 图1为本申请提供的一种应用场景示意图。如图1所示,终端102通过网络与服务器101进行通信。数据存储系统可以存储服务器101需要处理的数据。数据存储系统可以集成在服务器101上,也可以放在云上或其他网络服务器上。其中,终端102可以但不限于是各种个人计算机、笔记本电脑、智能手机、平板电脑、物联网设备和便携式可穿戴设备,物联网设备可为智能音箱、智能电视、智能空调、智能车载设备等。便携式可穿戴设备可为智能手表、智能手环、头戴设备等。服务器101可以用独立的服务器或者是多个服务器组成的服务器集群来实现。
[0060] 上述涉及的应用场景仅部分举例,本领域技术人员可以具体业务场景进行拓展应用,本申请实施例对此不作具体限制。
[0061] 下面结合图1的应用场景,参考图2至图7来描述根据本申请示例性实施方式的多文档摘要生成方法。该多文档摘要生成方法可以应用于图1中的服务器101或终端102。需要注意的是,上述应用场景仅是为了便于理解本申请的精神和原理而示出,本申请的实施方式在此方面不受任何限制。相反,本申请的实施方式可以应用于适用的任何场景。
[0062] 图2是本申请实施例提供的一种多文档摘要生成方法的流程示意图。如图2所示,该多文档摘要生成方法包括:
[0063] 步骤S201,获取多个文档之间的文档关系图。
[0064] 其中,文档关系图包括文档对应的图节点以及图节点连接边。图节点连接边反映文档之间关系,文档之间的关系可以包括文档之间的文本相似度。
[0065] 具体地,针对多个文档中的每个文档,可以根据文档包含的词构建每个文档的特征向量,通过特征向量之间的相似度来反映文档之间的相似度,并基于文档之间的相似度建立文档关系图。文档的特征向量可以包括多个维度,每个维度可以表示文档中的一个词,且该特征向量在某个维度上的元素值可以表征该维度对应的词在文档中的出现频率。
[0066] 例如,针对D1、D2、D3、D4这四个文档建立的文档关系图中,包括与每个文档对应的图节点,图节点之间通过边进行连接,图节点连接边可以反映文档之间的关系,边的权值可以基于文档之间的相似度进行线性变换得到。
[0067] 步骤S202,基于文档关系图,提取多个文档的关系特征。
[0068] 具体地,可以通过图卷积神经网络捕捉文档关系图中的文档之间的关系,将表征图节点之间关系的邻接矩阵和表征图节点自身特征值的特征矩阵输入图卷积神经网络,以获得图卷积神经网络输出的节点向量作为关系特征。
[0069] 其中,图卷积神经网络是一种用于处理图结构数据的深度学习模型,可以简称为GCN(Graph Convolutional Network)。图卷积神经网络利用卷积操作在图数据上进行特征提取和传播,通过学习节点的表示向量来捕捉节点之间的关系和图的结构信息。
[0070] 步骤S203,针对多个文档中的每个文档,提取文档的文本特征。
[0071] 具体地,可以将多个文档分别输入到文本编码器中,获得文本编码器输出的对应于每个文档的文本特征。
[0072] 在一些可能的实现方式中,根据输入的文本长度,文本编码器可以是BERT(一种基于Transformer的双向编码器)、RoBERTa(一种基于BERT的预训练自然语言处理模型)等自然语言处理模型的编码器。
[0073] 步骤S204,根据关系特征和多个文档分别对应的文本特征,生成多个文档的摘要。
[0074] 具体地,可以将关系特征和文本特征输入预训练的解码器,通过解码器组合这两种特征并将用于生成摘要。该解码器可以包括多个解码层,解码层可以用于计算关系特征的注意力权重和文本特征的注意力权重,解码层还可以通过线性函数或非线性函数对计算出的注意力权重进行组合后输出,解码器的最后一个解码层可以用于输出摘要词以形成摘要。
[0075] 应当理解的是,根据多文档生成的摘要由多个词构成,多文档摘要的生成过程包括从摘要的第一个词的生成至摘要的最后一个词的生成。
[0076] 上述实施例中,通过获取多个文档之间的文档关系图,可以基于文档关系图提取文档之间的关系特征,根据提取到的关系特征和每个文档的文本特征生成摘要。这样,在文档的文本特征的基础上,利用多个文档间的关系生成多文档摘要,可以减少对文档信息的遗漏,提升多文档摘要生成的逻辑性和准确性。
[0077] 在一个实施例中,如图3所示,可以通过以下方式获取文档关系图:
[0078] 步骤S301,针对多个文档中每个文档,获取文档的文本特征向量,并根据文本特征向量,生成文档的图节点。
[0079] 在一些可能的实现方式中,可以用TF‑IDF(Term Frequency‑Inverse Document Frequency,词频‑逆文档频率)算法,将非结构化的文本转化为向量形式,用文本特征向量代替文本内容来进行相似度计算,特征向量中每个元素的值就等于文档中对应单词的TF‑IDF值。
[0080] 下面以文档中的一个单词w为例,说明TF‑IDF值的一种示例性计算方法。TF值表示词出现的频度,出现得越频繁表明该词对于当前文档越重要。IDF表示该词在全部文档中的普遍程度,如果一个词在其他很多文档里也出现过,那么说明它的文档区分能力很低,对当前文档的重要性也应该降低。通过下述公式(1)和公式(2)可以分别计算出单词w的TF值wTF和IDF值wIDF。
[0081]
[0082] 其中,countw为文本中w的出现次数,counttoatl为文本总词数,n是包含w的文本个数,N为语料库中文本总个数。公式中log函数内分母加1是为了防止工程实现时出现除0的情况。
[0083] 根据上述方式计算出单词w的TF值和IDF值后,通过计算TF值与IDF值的乘积可以得到单词w的TF‑IDF值。在得到文本中每个词的TF‑IDF值后,根据词袋模型构建文本特征向量,向量中元素值就是该维度对应词的TF‑IDF值。
[0084] 步骤S302,根据文本特征向量,计算不同图节点的相似度为对应图节点之间的边权值。
[0085] 具体地,可以将每个文档作为文档关系图中的一个图节点,使用不同文档的文本特征向量之间的余弦相似度来表示不同文档之间的相似度,该余弦相似度即为文档关系图中对应的图节点的边权值。
[0086] 步骤S303,根据边权值,在不同图节点之间生成图节点连接边,得到文档关系图。
[0087] 在一个实施例中,如图4所示,基于文档关系图,提取多个文档的关系特征,可以包括:
[0088] 步骤S401,将文档关系图表示为邻接矩阵。
[0089] 其中,邻接矩阵中的元素值为对应行列的图节点间的相似度。
[0090] 在一些可能的实现方式中,文档关系图可以表示为邻接矩阵的形式。在一个示例中,邻接矩阵G包括文档关系图中的节点i和节点j,G[i][j]的值是节点i和节点j的关系权值。设文档i的特征向量为veci,文档j的特征向量为vecj,那么邻接矩阵G中的元素G[i][j]的计算公式可以为下述公式(3):
[0091]
[0092] 步骤S402,根据邻接矩阵进行文档间关系提取,得到多个文档的关系特征。
[0093] 具体地,可以通过图卷积神经网络对邻接矩阵进行处理,获得图卷积神经网络输出的节点向量V作为文档间的关系特征。例如,图卷积神经网络可以包含多个卷积层,这些卷积层可以学习文档关系图中节点的特征信息和节点之间的结构信息,节点的特征信息可以包括文档的文本特征向量的维度和元素值,节点之间的结构信息可以包括文档之间的相似度等关系特征。
[0094] 在一些可能的实现方式中,可以计算邻接矩阵与单位矩阵的矩阵和;将矩阵和输入至图卷积神经网络进行文档间关系提取,得到多个文档的关系特征。其中,单位矩阵与邻接矩阵大小相同,图卷积神经网络用于聚合输入矩阵中的节点特征并通过预设的激活函数更新并输出聚合后的节点特征。
[0095] 首先,根据文档关系图的邻接矩阵G计算邻接矩阵A,计算公式为A=G+I。其中I表示与矩阵G大小完全相同的单位矩阵,本过程为每个节点加入了自连结,使得矩阵A的主对角线元素的值均为1,从而可以使每个节点在聚合临近节点特征信息时能考虑到节点本身。然而,根据文档关系图中节点对应的文档的文本特征向量计算特征矩阵H,特征矩阵H中元素的值可以是文档的文本特征向量的值。将邻接矩阵A和特征矩阵H输入GCN以得到上下文(l‑1)
文档表征。以GCN(图卷积神经网络)的第l层为例,GCN的第(l‑1)层输出的激活矩阵为H ,该输出同时也是第l层的输入。该步骤可以同时对文档节点的结构信息和特征信息进行学习,具体操作可以表述为以下公式(4):
[0096](l‑1)
[0097] 在上述公式(4)中,σ为激活函数,W 为可学习的参数矩阵,为归一化的邻接矩阵。归一化可以通过以下公式(5)和公式(6)计算得到:
[0098]
[0099] 在上述公式中,D为邻接矩阵A的度矩阵,D的元素值与A的元素值相关。i和k分别为度矩阵D中的行序号和列序号。
[0100] 在一个实施例中,如图5所示,根据关系特征和多个文档分别对应的文本特征,生成多个文档的摘要,包括:
[0101] 步骤S501,分别提取关系特征对应的注意力权重和文本特征对应的注意力权重。
[0102] 具体地,对于关系特征对应的注意力权重,可以将上一个解码层的输出值作为查询向量,将关系特征中的节点向量作为关键向量和数值向量,以完成注意力计算。在一些可能的实现方式中,关系特征可以表示为节点向量V,该节点向量V可以包括多个节点的特征值。以摘要的第t个词的生成为例,解码器包括l个解码层,以 表示第(l‑1)个解码层的输出值,对于关系特征对应的注意力权重,可以使用 作为查询向量q,使用节点向量作为关键向量和数值向量,通过下述公式(7)可以计算出节点j到 的相似度:
[0103]
[0104] 在上述公式(7)中,WQ和WK是可学习的参数权重,αt,j表示节点j到 的相似度,节点j为节点向量V中的一个节点,dk可以表示节点向量V的维度,vj可以表示节点j的特征值。
[0105] 步骤S502,根据预设的第一权重系数和关系特征对应的注意力权重对关系特征加权组合,得到全局关系向量。
[0106] 具体地,若关系特征为节点向量V,可以通过归一化指数函数和预设的第一权重系数来计算节点向量V中节点的特征值的加权和作为全局关系向量。例如,在生成摘要的第t个词的过程中,通过下述公式(8)可以计算节点j对应的全局关系向量:
[0107] gt=∑jSoftmax(αt,j)(vjWV)           (8)
[0108] 在上述公式(8)中,gt是全局关系向量,Softmax是归一化指数函数,vj可以表示节点j的特征值,WV是可学习的参数。
[0109] 步骤S503,根据文本特征对应的注意力权重确定上下文文本向量。
[0110] 具体地,通过计算 和文本特征之间的注意力,可以使用自注意力解码器求出上下文文本向量。
[0111] 在一些可能的实现方式中,可以根据文本特征对应的注意力权重和解码器在生成上一个摘要词时的参数,计算生成当前摘要词的上下文文本向量。
[0112] 步骤S504,将全局关系向量和上下文文本向量输入预训练的前馈神经网络,并获取前馈神经网络输出的摘要。
[0113] 其中,前馈神经网络包括图融合层和全连接层,图融合层用于通过线性变换组合全局关系向量和上下文向量,全连接层用于根据组合后的向量生成并输出摘要。
[0114] 具体地,前馈神经网络可以通过图融合层对全局关系向量和上下文文本向量进行线性变换,得到融合全局关系向量的特征值,再将特征值经过残差变换和归一化后输入全连接层。全连接层的输出可以作为解码器中其他解码层的输入,也可以作为用于生成摘要的词。
[0115] 在一个实施例中,关系特征包括根据文档关系图生成的节点向量,节点向量包括多个节点,如图6所示,可以通过以下方式提取关系特征对应的注意力权重:
[0116] 步骤S601,计算节点向量中每个节点对应的注意力相似度。
[0117] 步骤S602,根据节点的传播次数确定注意力相似度的传播概率。
[0118] 步骤S603,根据传播概率,计算注意力相似度按照传播次数进行传播后的目标值。
[0119] 步骤S604,根据预设的第二权重系数对每个节点对应的目标值进行线性组合,得到关系特征对应的注意力权重。
[0120] 具体地,可以线性预测每个节点的注意力相似度,然后通过分数传播使注意力相似度结构化,令每个节点按照预设的传播次数将节点的注意力相似度向临近的其他节点进行传播,根据传播后各节点的注意力相似度线性组合得到文档关系对应的注意力权重。
[0121] 以生成第t个摘要词的过程为例,通过上述公式(7)可以计算出节点的注意力相似度αt,若用βt表示传播后的注意力相似度,则可以通过下述公式(9)得到第p次传播后的注意力相似度:
[0122]
[0123] 在上述公式(9)中, 可以表示第p次传播后的注意力相似度,是文档关系图的度归一化的邻接矩阵。ω∈(0,1]是注意力相似度的传播概率。ω可以表示注意力相似度向邻接节点传播的概率,(1‑ω)可以表示从初始值重新开始的概率。可以令 以表示预测的初始注意力相似度。若把 代入上述公式(9),则可以得到公式(10):
[0124]
[0125] 在注意力相似度传播p步之后,根据公式(11)可以利用节点值的加权和计算全局关系向量gt′:
[0126]
[0127] 其中,Softmax是归一化指数函数,vj可以表示节点j的特征值,WV是可学习的参数。p是每个节点向其他节点传播注意力相似度的次数。p可以根据图卷积神经网络包含的卷积层的数量确定。
[0128] 上述实施例中,在关系特征的基础上引入图传播注意力,利用文档关系图的图结构来指导摘要生成过程,从而可以进一步利用文档语义结构,使解码器可以更有效地选择和组织多文档的显著内容。
[0129] 为进一步体现本申请提供的多文档摘要生成方法的实现过程,下面结合图7和图8进一步说明。
[0130] 图7是本申请实施例提供的一种基于文档关系图的多文档摘要生成模型架构图。如图7所示,该模型可以包括文档级GCN模块、文本编码模块和l层神经网络。GCN模块也可以包括l个用于提取节点关系特征的卷积层。文本编码可以对输入文档进行处理,提取并输出文档特征。神经网络的每一层可以包括注意力机制层、图融合层、归一化层和前馈层,注意力机制层可以根据GCN输出的文档节点的关系特征计算文档关系图的图传播注意力,图传播注意力可以用于计算文档关系图的全局关系向量,注意力机制层也可以根据文本编码模块输出的文本特征计算文本注意力,文本注意力可以用于计算文档的上下文文本向量。图融合层可以对全局关系向量和上下文文本向量进行线性组合后输入归一化层,归一化层可以对输入向量进行残差连接和归一化并输出向量至前馈层。前馈层的输出可以作为神经网络下一层的输入,或用于在神经网络的最后一层生成摘要词。
[0131] 图8是本申请实施例提供的一种基于文档关系图的多文档摘要生成流程图。如图8所示,可以将多个文档输入如图7所示的多文档摘要生成模型;一方面,通过该模型可以利用TF‑IDF算法生成每个文档的文本特征向量,并可以基于文本特征向量之间的预先相似度构建文档关系图,然后通过GCN模块提取文档之间的关系以计算图传播注意力;另一方面,通过该模型的文本编码模块可以得到文档的文本特征并计算文本注意力。然后,通过图融合层对图传播注意力和文本注意力进行融合后输入归一化层进行残差拼接和归一化,通过前馈层对归一化后的向量进行处理以生成并输出摘要词。根据已生成的部分摘要词计算掩码注意力并反馈至下一个摘要词的生成过程。
[0132] 图9为本申请实施例提供的一种多文档摘要生成装置的结构示意图。如图9所示,该多文档摘要生成装置900可以包括:
[0133] 关系图获取模块901,用于获取多个文档之间的文档关系图,所述文档关系图包括所述文档对应的图节点以及图节点连接边,所述图节点连接边反映文档之间关系;
[0134] 关系特征提取模块902,用于基于所述文档关系图,提取所述多个文档的关系特征;
[0135] 文本特征提取模块903,用于针对所述多个文档中的每个文档,提取所述文档的文本特征;
[0136] 摘要生成模块904,用于根据所述关系特征和所述多个文档分别对应的文本特征,生成所述多个文档的摘要。
[0137] 在一个实施例中,摘要生成模块904可以包括:
[0138] 注意力提取单元,可以用于分别提取所述关系特征对应的注意力权重和所述文本特征对应的注意力权重。
[0139] 全局关系单元,可以用于根据预设的第一权重系数和所述关系特征对应的注意力权重对所述关系特征加权组合,得到全局关系向量。
[0140] 上下文向量单元,可以用于根据所述文本特征对应的注意力权重确定上下文文本向量。
[0141] 前馈处理单元,可以用于将所述全局关系向量和所述上下文文本向量输入预训练的前馈神经网络,并获取所述前馈神经网络输出的摘要;其中,所述前馈神经网络包括图融合层和全连接层,所述图融合层用于通过线性变换组合所述全局关系向量和所述上下文向量,所述全连接层用于根据组合后的向量生成并输出摘要。
[0142] 在一个实施例中,关系特征包括根据所述文档关系图生成的节点向量,所述节点向量包括多个节点,注意力提取单元可以包括:
[0143] 相似度计算单元,可以用于计算所述节点向量中每个节点对应的注意力相似度。
[0144] 概率计算单元,可以用于根据所述节点的传播次数确定所述注意力相似度的传播概率。
[0145] 传播单元,可以用于根据所述传播概率,计算所述注意力相似度按照所述传播次数进行传播后的目标值。
[0146] 相似度组合单元,可以用于根据预设的第二权重系数对每个节点对应的目标值进行线性组合,得到所述关系特征对应的注意力权重。
[0147] 在一个实施例中,关系图获取模块901可以包括:
[0148] 节点生成单元,可以用于针对所述多个文档中每个文档,获取所述文档的文本特征向量,并根据所述文本特征向量,生成所述文档的图节点。
[0149] 边权值计算单元,可以用于根据所述文本特征向量,计算不同图节点的相似度为对应图节点之间的边权值。
[0150] 图生成单元,可以用于根据所述边权值,在不同图节点之间生成图节点连接边,得到所述文档关系图。
[0151] 在一个实施例中,关系特征提取模块902可以包括:
[0152] 矩阵表示单元,可以用于将所述文档关系图表示为邻接矩阵,所述邻接矩阵中的元素值为对应行列的图节点间的相似度。
[0153] 关系提取单元,可以用于根据所述邻接矩阵进行文档间关系提取,得到所述多个文档的关系特征。
[0154] 在一个实施例中,关系提取单元可以包括:
[0155] 矩阵计算单元,可以用于计算所述邻接矩阵与单位矩阵的矩阵和,所述单位矩阵与所述邻接矩阵大小相同。
[0156] 模型处理单元,可以用于将所述矩阵和输入至图卷积神经网络进行文档间关系提取,得到所述多个文档的关系特征,其中,所述图卷积神经网络用于聚合输入矩阵中的节点特征并通过预设的激活函数更新并输出聚合后的节点特征。
[0157] 本实施例提供的多文档摘要生成装置,用于执行前述任一方法实施例中的技术方案,其实现原理和技术效果类似,在此不再赘述。
[0158] 应该理解,上述的装置实施例仅是示意性的,本申请的装置还可通过其它的方式实现。例如,上述实施例中单元/模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。例如,多个单元、模块或组件可以结合,或者可以集成到另一个系统,或一些特征可以忽略或不执行。
[0159] 另外,若无特别说明,在本申请各个实施例中的各功能单元/模块可以集成在一个单元/模块中,也可以是各个单元/模块单独物理存在,也可以两个或两个以上单元/模块集成在一起。上述集成的单元/模块既可以采用硬件的形式实现,也可以采用软件程序模块的形式实现。
[0160] 图10为本申请实施例提供的一种电子设备的结构示意图。如图10所示,该电子设备100包括:
[0161] 处理器101,存储器102,以及通信接口103;
[0162] 所述存储器102用于存储所述处理器101的可执行指令;所述可执行指令可以为计算机执行指令;
[0163] 其中,所述处理器101配置为经由执行所述可执行指令来执行前述任一方法实施例中的技术方案。
[0164] 可选的,存储器102既可以是独立的,也可以跟处理器101集成在一起。
[0165] 可选的,当所述存储器102是独立于处理器101之外的器件时,所述电子设备100还可以包括:
[0166] 总线104,存储器102和通信接口103通过总线104与处理器101连接并完成相互间的通信,通信接口103用于和其他设备进行通信。
[0167] 可选的,通信接口103具体可以通过收发器实现。通信接口用于实现数据库访问装置与其他设备(例如客户端、读写库和只读库)之间的通信。存储器可能包含随机存取存储器(random access memory,RAM),也可能还包括非易失性存储器(non‑volatile memory),例如至少一个磁盘存储器。
[0168] 总线104可以是外设部件互连标准(peripheral component interconnect,PCI)总线或扩展工业标准结构(extended industry standard architecture,EISA)总线等。总线可以分为地址总线、数据总线、控制总线等。为便于表示,图中仅用一条线表示,但并不表示仅有一根总线或一种类型的总线。
[0169] 上述的处理器可以是通用处理器,包括中央处理器CPU、网络处理器(network processor,NP)等;还可以是数字信号处理器DSP、专用集成电路ASIC、现场可编程门阵列FPGA或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。
[0170] 该电子设备用于执行前述任一方法实施例中的技术方案,其实现原理和技术效果类似,在此不再赘述。
[0171] 本申请实施例还提供一种可读存储介质,所述可读存储介质可以为计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现前述任一方法实施例提供的技术方案。
[0172] 本申请实施例还提供一种计算机程序产品,包括计算机程序,所述计算机程序被处理器执行时用于实现前述任一方法实施例提供的技术方案。
[0173] 本领域普通技术人员可以理解:实现上述各方法实施例的全部或部分步骤可以通过程序指令相关的硬件来完成。前述的程序可以存储于一计算机可读取存储介质中。该程序在执行时,执行包括上述各方法实施例的步骤;而前述的存储介质包括:ROM、RAM、磁碟或者光盘等各种可以存储程序代码的介质。
[0174] 在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。上述实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
[0175] 本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本申请的其它实施方案。本申请旨在涵盖本申请的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本申请的一般性原理并包括本申请未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本申请的真正范围和精神由下面的权利要求书指出。
[0176] 应当理解的是,本申请并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本申请的范围仅由所附的权利要求书来限制。

当前第1页 第1页 第2页 第3页
相关技术
存储介质相关技术
摘要生成相关技术
陶江发明人的其他相关专利技术