技术领域
[0001] 本申请涉及情绪识别技术领域,特别是涉及一种情绪识别模型确定方法、情绪识别方法、电子设备及计算机存储介质。
相关背景技术
[0002] 随着科学技术的不断发展,利用计算机技术实现对语音数据的自动识别有着越来越深的研究意义,对语音数据进行情绪识别已成为本领域技术人员越来越关注的研究领域之一。然而传统的情绪识别模型对语音数据的情绪识别的准确性较低,如何提高情绪识别模型的准确性仍然是本领域技术人员亟待解决的问题。
具体实施方式
[0025] 以下描述中,为了说明而不是为了限定,提出了诸如特定系统结构、技术之类的具体细节,以便透彻理解本申请实施例。然而,本领域的技术人员应当清楚,在没有这些具体细节的其它实施例中也可以实现本申请。在其它情况中,省略对众所周知的系统、装置、电路以及方法的详细说明,以免不必要的细节妨碍本申请的描述。
[0026] 本申请中的术语“第一”、“第二”等是用于区别不同对象,而不是用于描述特定顺序。此外,术语“包括”和“具有”以及他们任何变形,意图覆盖不排他的包含。应当理解,当在本说明书和所附权利要求书中使用时,术语“包括”指示所描述特征、整体、步骤、操作、元素和/或组件的存在,但并不排除一个或多个其它特征、整体、步骤、操作、元素、组件和/或其集合的存在或添加。还应当理解,在此本申请说明书中所使用的术语仅仅是出于描述特定实施例的目的而并不意在限制本申请。如在本申请说明书和所附权利要求书中所使用的那样,除非上下文清楚地指明其它情况,否则单数形式的“一”、“一个”及“该”意在包括复数形式。还应当进一步理解,在本申请说明书和所附权利要求书中使用的术语“和/或”是指相关联列出的项中的一个或多个的任何组合以及所有可能组合,并且包括这些组合。
[0027] 如在本说明书和所附权利要求书中所使用的那样,术语“如果”可以依据上下文被解释为“当……时”或“一旦”或“响应于确定”或“响应于检测到”。类似地,短语“如果确定”或“如果检测到[所描述条件或事件]”可以依据上下文被解释为意指“一旦确定”或“响应于确定”或“一旦检测到[所描述条件或事件]”或“响应于检测到[所描述条件或事件]”。
[0028] 需要说明的是,当某一元件固定于另一个元件,包括将该元件直接固定于该另一个元件,或者将该元件通过至少一个居中的其它元件固定于该另一个元件。当一个元件连接另一个元件,包括将该元件直接连接到该另一个元件,或者将该元件通过至少一个居中的其他元件连接到该另一个元件。
[0029] 下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本申请的一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
[0030] 本申请首先提出一种情绪识别模型确定方法,如图1所示,图1是本申请情绪识别模型确认方法第一实施例的流程示意图。该情绪识别模型确定方法具体包括步骤S11‑步骤S13。
[0031] 步骤S11:获取预训练的语音大模型。
[0032] 预训练的语音大模型例如WavLM、Hubert、Wav2Vec模型、Wav2Vec2.0模型等,是基于大规模数据预训练好的语音大模型,预训练的语音大模型处理的是语音数据,通常用于自动语音识别、语音合成、情感分析等任务。这类模型能够将语音信号转换为文本或其他形式的表示。预训练的语音大模型通常包含多个组件,如特征提取、序列建模和解码器等。预训练语音大模型则主要应用于语音相关领域,可以针对特定任务对预训练语音大模型进行微调训练,以将一个已经在大型数据集上预训练好的语音大模型应用到一个新的相关的任务上。
[0033] 步骤S12:获取带有帧级别的情绪识别标签的训练数据。
[0034] 具体地,带有帧级别的情绪识别标签的训练数据是指训练数据被标签标记的细粒度精确到帧级别。例如在一训练数据中,每一帧均对应一个情绪识别标签;又例如,在对数据进行标记以得到训练数据时,按时间点对数据进行标记,标记点精确到毫秒级,即可得到带有帧级别的情绪识别标签的训练数据。
[0035] 可选地,每一训练数据至少包括多个语音单元及每个语音单元对应的情绪识别标签。
[0036] 在一应用场景中,每个语音单元包括1帧、3帧、5帧、15帧或20帧等,每一帧包括1ms、2ms、5ms、15ms或20ms等,可为每个语音单元设置一个情绪识别标签,每一训练数据至少包括多个语音单元。这种设置便于丰富训练数据的数据内容,提高后续的训练效果。
[0037] 可选地,在一应用场景中,在获取训练数据时,可利用实际业务场景中的客服回复音频作为候选训练数据,对候选训练数据进行初步筛选,删掉时长过短和/或语音识别错误率过高的候选训练数据后,对剩余符合标准的候选训练数据进行帧级别的情绪识别标签的标注,以得到带有帧级别的情绪识别标签的训练数据。
[0038] 可选地,步骤S12还可通过步骤S12A与步骤S12B来实现。
[0039] 步骤S12A:基于情绪识别模型的应用场景确定情绪识别标签。
[0040] 在不同的应用场景中,对情绪的分类不同,因此情绪识别标签不同。例如在客服语音质检的应用场景中,可确定情绪识别标签为平静与不平静;又例如在游客评价的应用场景中,还可基于具体的活动内容及评价维度确定情绪识别标签,例如确定情绪识别标签为激动与平静,或是其他标签类型等。基于应用场景来确定情绪的分类方式,进而确定情绪识别标签,能够提高训练所得的情绪识别模型的场景适用性,提高使用体验。
[0041] 在不同的应用场景中,对情绪识别的细化程度也不同,因此情绪识别标签不同。例如在客服语音质检的应用场景中,可将情绪识别标签设定为两类,例如平静与不平静,以更加贴合客服语音质检场景的使用需求,且降低模型训练过程中数据处理的复杂度;又例如在患者情绪识别的应用场景中,可基于识别需求来对情绪进行更细化地分类,例如可设置三类或三类以上的情绪识别标签,例如情绪识别标签包括平静、愤怒、焦虑、悲伤、高兴,又例如情绪识别标签包括愤怒、厌恶、恐惧、幸福、悲伤和惊喜。基于应用场景来确定情绪识别的细化程度,进而确定情绪识别标签,能够提高训练所得的情绪识别模型的场景适用性,提高使用体验。
[0042] 步骤S12B:获取带有帧级别的情绪识别标签的训练数据。
[0043] 在确定好情绪识别标签后,可进一步基于该情绪识别标签来标记训练数据,进而获取带有帧级别的情绪识别标签的训练数据。
[0044] 可选地,情绪识别标签包括平静、不平静。
[0045] 在传统的客服自动化语音质检方法里,情绪识别模块中情绪识别标签通常来源于常见的情绪分类理论,例如情绪识别标签包括愤怒、厌恶、恐惧、幸福、悲伤等,但这种分类方式利用了常规的情感分类方法,但并未针对客服语音质量检查场景进行针对性调整,因此在客服语音质检场景中,这种分类方式不仅增加了该场景中数据处理和情绪识别的复杂度,且由于相似的情绪识别标签之间区别较小,不同的评价主体(例如评价人等)对同一待质检语音数据的评价结果容易出现评价误差,因此传统方法的评价一致性较差。
[0046] 因此,可将情绪识别标签限定为平静、不平静,以更加贴合客服语音质检场景的使用需求,不仅能够降低数据处理和情绪识别的复杂度,提高情绪识别效率,且能够使得处理后的数据更清晰直观,提高客服语音质检评价方法的评价一致性。
[0047] 可选地,带有帧级别的情绪识别标签的训练数据可由人工完成标签的标记,也可通过其他模型等实现标签的标记,具体不作限定。在一应用场景中,在一段语音数据中,例如第5.661秒至第9.833秒标记为平静,又例如第34.823秒至第40.723秒标记为不平静。
[0048] 步骤S13:基于训练数据对语音大模型进行微调训练,以得到情绪识别模型。
[0049] 利用带有帧级别的情绪识别标签的训练数据对预训练的语音大模型进行训练,即利用带有帧级别的情绪识别标签的训练数据对语音大模型进行微调(finetune)训练,以得到情绪识别模型。
[0050] 微调(finetune)训练是一种机器学习技术,能够将一个已经在大型数据集上预训练好的模型应用到一个新的相关的任务上。在微调过程中,预训练的模型的大部分参数保持不变,只有模型的一部分(通常是顶层)会根据新任务的数据进行更新和调整。例如在实践中,微调训练通常包括以下步骤:选择一个预训练模型,冻结预训练模型的大部分层,只解锁最后几层或输出层以进行训练,更新被解锁层的相关参数,以优化模型在新任务上的性能。微调训练能够使得模型可利用其在预训练阶段学到的知识、特定的训练数据进行个性化学习,提高训练效率。
[0051] 本实施例能够利用带有帧级别的情绪识别标签的训练数据对预训练的语音大模型进行训练,以得到情绪识别模型,能够提高情绪识别模型的训练效率,且训练数据为带有帧级别的情绪识别标签的训练数据,能够使得训练数据被标签标记的细粒度精确到帧级别,因此能够提高对语音大模型的训练精准度,进而能够提高训练所得的情绪识别模型的情绪识别准确性。
[0052] 可选地,步骤S13还可通过将训练数据输入语音大模型,以对语音大模型进行情绪识别任务训练,以得到情绪识别模型的步骤来实现。
[0053] 将训练数据输入语音大模型,对其只进行情绪识别任务的训练,便于提高训练效率。
[0054] 可选地,步骤S13还可通过基于训练数据对语音大模型同时进行情绪识别任务与辅助识别任务,以完成多任务训练并得到情绪识别模型的步骤来实现。
[0055] 多任务训练能够使用模型中共享的主干网络同时优化不同任务中的多个目标,来自不同任务的辅助信息和交叉正则化会带来模型训练效果的提升。
[0056] 多任务训练能够通过共享模型的参数或特征表示来解决多个任务,例如模型在处理不同任务时,可以将一些通用的底层特征进行共享,从而能够减少对大量标注数据的需求,提高数据的利用效率,减少训练资源与时间的消耗;训练中的任务可以通过与其他任务共享数据来增强学习效果,因此有助于提高模型在所有任务上的表现;模型在学习多个任务的过程中能够捕捉到更多的通用信息,这有助于提高模型在新任务上的泛化能力,因此能够提高模型的训练效果。因此多任务训练能够提高模型训练效率和训练效果。
[0057] 可选地,辅助识别任务包括语音识别任务、说话人识别任务中的至少一者。
[0058] 在一应用场景中,基于训练数据对语音大模型同时进行情绪识别任务与语音识别任务,以完成多任务训练并得到情绪识别模型;在另一应用场景中,基于训练数据对语音大模型同时进行情绪识别任务与说话人识别任务,以完成多任务训练并得到情绪识别模型;在一应用场景中,如图6所示,图6是本申请的多任务训练的训练框架的部分结构示意图,基于训练数据对语音大模型同时进行情绪识别任务与语音识别任务、说话人识别任务,以完成多任务训练并得到情绪识别模型。
[0059] 可选地,在一应用场景中,在基于训练数据对语音大模型同时进行情绪识别任务与语音识别任务、说话人识别任务,以完成多任务训练并得到情绪识别模型的步骤中,总体损失函数L可由三部分构成,具体满足如下公式1‑1:
[0060] L=α*LCE1+β*LCTC+(1‑α‑β)*LCE2……1‑1
[0061] 其中,LCE1为情感识别任务的损失函数、LCTC为语音识别任务的损失函数、LCE2为说话人识别任务的损失函数,α和β为两个超参数,α、β、1‑α‑β均为非负数。可选地,超参数α、β可以通过grid search方法确定。
[0062] α、β、1‑α‑β均为非负数,可以缩小模型在多任务训练过程中的搜索范围,提高多任务训练的训练效率。
[0063] 可选地,说话人识别任务包括说话人性别识别任务和/或说话人年龄识别任务,具体不作限定。
[0064] 在其他实施例中,辅助识别任务还可包括其他任务,具体不作限定。
[0065] 可选地,本实施例训练得到的情绪识别模型在进行情绪识别时,可只进行情绪识别任务,不进行语音识别任务、辅助识别任务,以提高情绪识别效率。
[0066] 可选地,步骤S13还可通过利用训练数据更新语音大模型的卷积神经网络层的参数,以得到情绪识别模型的步骤来实现。
[0067] 更新语音大模型的卷积神经网络层的参数即对语音大模型的卷积神经网络(Convolutional Neural Network,CNN)层进行微调。在一应用场景中,基于带有帧级别的情绪识别标签的训练数据对语音大模型进行情绪识别任务训练,更新语音大模型的卷积神经网络层(即CNN层)的参数,以实现对语音大模型的训练,进而得到情绪识别模型;在另一应用场景中,基于训练数据对语音大模型进行多任务训练,更新语音大模型的卷积神经网络层(即CNN层)的参数,以实现对语音大模型的训练,进而得到情绪识别模型。
[0068] 例如,如图2所示,图2是本申请微调训练一实施例的训练框架的部分结构示意图。将训练数据输入语音大模型(例如Wav2vec2.0模型),卷积神经网络层为可训练部分;嵌入层后接的是分类层;能够在分类层得到语音大模型(例如Wav2vec2.0模型)做出的帧级别的预测结果,将得到的预测结果与训练数据中帧级别的情绪识别标签做分类损失计算得到帧级别的分类误差,进而可基于该分类损失计算结果训练卷积神经网络层,即基于该分类损失计算结果更新图2中卷积神经网络层的参数。选择卷积神经网络层进行训练的好处是能够实现局部的特征聚焦,且训练过程中只需要增加较少的参数量,能够提高训练效率。
[0069] 卷积神经网络层能够处理原始的语音波形数据,通过卷积操作提取局部语音特征(例如频率特征等),将原始的语音信号转换成一系列紧凑的特征表示。
[0070] 预训练的语音大模型的卷积神经网络层已经在大量未标记的语音数据上学习到了通用的语音特征。对卷积神经网络层进行微调训练,可以使其对特征的提取更能适应特定任务的需求,例如能够更好地捕捉与下游任务(例如情绪识别任务)密切相关的语音信号细节,从而能够提取到更具区分性的特征;微调训练阶段只更新卷积神经网络层的参数,可以降低模型在有限的标注数据上过度拟合的风险;且更新卷积神经网络层的参数通常只需要较少的计算资源和时间。因此上述设置能够提高训练效率及训练效果,进而能够提高训练所得的情绪识别模型的情绪识别准确性。
[0071] 在其他实施例中,还可对语音大模型的其他层进行参数的更新训练,具体不作限定。
[0072] 在一应用场景中,步骤S13还可以通过步骤A1‑步骤A2来实现。
[0073] 步骤A1:提取训练数据的语义表达及声学表达。
[0074] 步骤A2:基于语义表达及声学表达对语音大模型进行训练,以得到情绪识别模型。
[0075] 在一应用场景中,情绪识别标签为平静与不平静。获取实际业务生产环境中的客服回复音频作为候选训练数据,并对候选训练数据进行初步筛选,删掉时长过短和/或语音识别错误率过高的候选训练数据后,对剩余符合标准的候选训练数据进行帧级别的情绪识别标签的标注(例如标注候选训练数据中情绪为不平静时的起止时间),以得到带有帧级别的情绪识别标签的训练数据;利用Wav2vec2.0模型提取出训练数据的语义表达及声学表达,控制Wav2vec2.0模型基于语义表达及声学表达先进行多任务训练(例如情绪识别任务与语音识别任务、说话人识别任务),多任务训练中的总损失函数L满足公式1‑1;进一步地,再控制Wav2vec2.0模型进行情绪识别任务训练,以更新Wav2vec2.0模型的卷积神经网络层(即CNN层)的参数,以完成微调训练并得到情绪识别模型。
[0076] 其中,不同于单纯的文本信息,语义表达是指通过语言、文字、符号、语调等或其他沟通方式所传达的意义和信息的内容。它关注的是信息的内在含义,即说话者或作者想要传递的思想、感情、意图或知识。语义表达、声学表达中能够包含更加丰富的情绪信息,提取语义表达、声学表达进行任务训练,能够提高模型训练的精准度,提高训练所得的情绪识别模型的情绪识别准确性。
[0077] 其中,多任务训练请参阅图6,语音数据输入语音大模型(例如Wav2Vec),模型利用卷积神经网络层(即CNN层)提取局部语音特征,分别输入进情绪识别任务(例如帧级别情绪识别任务)与语音识别任务(即ASR任务)、说话人识别任务进行任务训练,再进行各自对应的损失函数的相关计算。其中,说话人识别任务可以先对局部语音特征进行池化处理,得到句级别说话人识别标签(例如图6中句级别识别标签),再进行对应的损失函数的相关计算。
[0078] 本申请进一步提出一种情绪识别模型确定方法,如图3所示,图3是本申请情绪识别模型确认方法第二实施例的流程示意图。该情绪识别模型确定方法具体包括步骤S31‑步骤S34。
[0079] 步骤S31:获取预训练的语音大模型。
[0080] 步骤S31的具体实施方式可参阅步骤S11,此处不再赘述。
[0081] 步骤S32:获取带有帧级别的情绪识别标签的训练数据。
[0082] 步骤S32的具体实施方式可参阅步骤S12,此处不再赘述。
[0083] 步骤S33:基于训练数据对语音大模型同时进行情绪识别任务与辅助识别任务,以完成多任务训练并得到第二训练模型。
[0084] 基于训练数据进行多任务训练的具体实施方式可参阅上述实施例,此处不再赘述。在本实施例中,将基于训练数据对语音大模型同时进行情绪识别任务与辅助识别任务,以完成多任务训练并得到的模型作为第二训练模型。
[0085] 步骤S34:将训练数据输入第二训练模型,以对第二训练模型进行情绪识别训练,以得到情绪识别模型。
[0086] 本实施例先利用训练数据对语音大模型进行至少包括情绪识别任务的多任务训练,将训练得到的第二训练模型进一步进行情绪识别任务训练,能够进一步提高模型的训练效果,在多任务训练中提高模型对多任务的处理能力后,再针对性地对模型进行情绪识别任务训练,能够提高训练所得的情绪识别模型的情绪识别的准确性。
[0087] 在其他实施例中,针对情绪识别模型确定方法可做类似改进,此处不再赘述。
[0088] 本申请进一步提出一种情绪识别方法,如图4所示,图4是本申请情绪识别方法第一实施例的流程示意图。该情绪识别方法具体包括步骤S41‑步骤S43。
[0089] 步骤S41:通过上述情绪识别模型确定方法获取情绪识别模型。
[0090] 步骤S42:利用情绪识别模型对语音数据进行情绪识别。
[0091] 步骤S43:输出情绪识别标签及语音数据对应的情绪识别曲线。
[0092] 可选地,情绪识别曲线可以是某一情绪识别标签的概率值随时间轴的变化曲线,例如情绪识别标签包括不平静时,某一语音数据对应的情绪识别曲线可包括不平静标签的概率值随时间的变化曲线。
[0093] 在一应用场景中,将语音数据输入上述情绪识别模型,利用情绪识别模型对语音数据进行处理,输出与语音数据对应的帧级别的情绪识别标签。
[0094] 由于情绪识别模型是利用带帧级别的情绪识别标签的训练数据去训练预训练的语音大模型得到的,因此利用该情绪识别模型来进行情绪识别任务能够有效提高情绪识别的准确性,且输出的情绪识别曲线能够提高可视化效果,提高用户对该情绪识别模型的使用体验。
[0095] 可选地,步骤S43还可通过输出帧级别的情绪识别标签及与语音数据对应的帧级别情绪识别曲线来实现,这种方式能够有效提高输出结果的细粒度,便于对输出结果进一步池化处理,便于得到句级别、段级别等级别的情绪识别结果,提高情绪识别模型的灵活性。
[0096] 可选地,如图5所示,图5是本申请的情绪识别曲线与语音数据一实施例的示意图。图5中横坐标为时间轴,情绪识别曲线对应的纵坐标为情绪标签为不平静的概率值。
[0097] 可选地,步骤S43还可以通过步骤B1‑步骤B3来实现:
[0098] 步骤B1:利用softmax函数输出语音单元对应的情绪识别标签概率分数。
[0099] 具体地,语音数据至少包括一个语音单元,每个语音单元可包括1帧、3帧、5帧、15帧或20帧等,每一帧可包括1ms、2ms、5ms、15ms或20ms等。利用softmax函数输出与语音单元对应的情绪识别标签概率分数。
[0100] 步骤B2:基于预设条件、情绪识别标签概率分数得到与该语音单元对应的情绪识别标签。
[0101] 例如在一应用场景中,某一语音单元的不平静概率为80%,预设条件为不平静概率大于50%则判定为不平静,则得到与该语音单元对应的情绪识别标签为不平静。
[0102] 步骤B3:基于预设条件、情绪识别标签概率分数得到与语音数据对应的情绪识别曲线。
[0103] 不限定步骤B3与步骤B2的先后顺序。
[0104] 情绪识别曲线为某一情绪识别标签随时间的变化曲线。例如在一应用场景中,每一语音单元为10ms,情绪识别模型可输出与语音单元对应的不平静的概率分数,可知不平静的概率分数会随语音数据的时间轴变化而变化,进而可得到与语音数据对应的情绪识别曲线。
[0105] 在一应用场景中,还可以利用输出的与语音数据对应的情绪识别标签统计在某一客服人员在某一段对话中、某一日中或某一月中出现不平静标签的数量,进而利用该信息对该客服人员的服务质量进行评价。
[0106] 本申请进一步提出一种电子设备,电子设备包括存储器和处理器,存储器存储有计算机程序指令,处理器执行计算机程序指令以实现上述的情绪识别模型确定方法和/或上述情绪识别方法。
[0107] 情绪识别模型确定方法的具体实施方式与工作原理可参阅上述实施例,此处不再赘述。
[0108] 上述情绪识别方法的具体实施方式与工作原理可参阅上述实施例,此处不再赘述。
[0109] 本申请进一步提出一种计算机存储介质,如图7所示,图7是本申请计算机存储介质一实施例的结构示意图。其上存储有程序指令61,程序指令61被处理器执行以实现上述情绪识别模型确定方法和/或上述情绪识别方法。
[0110] 其中,程序指令61可以形成程序文件以软件产品的形式存储在上述存储介质中,以使得一台电子设备(可以是个人计算机,服务器,或者网络设备等)或处理器(processor)执行本申请各个实施方式方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read‑Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质,或者是计算机、服务器、手机、平板等终端设备。
[0111] 本实施例计算机存储介质60可以是但不局限于U盘、SD卡、PD光驱、移动硬盘、大容量软驱、闪存、多媒体记忆卡、服务器等。
[0112] 在一个实施例中,提供了一种计算机程序产品或计算机程序,该计算机程序产品或计算机程序包括计算机指令,该计算机指令存储在计算机存储介质中。电子设备的处理器从计算机存储介质读取该计算机指令,处理器执行该计算机指令,使得该电子设备执行上述各方法实施例中的步骤。
[0113] 另外,上述功能如果以软件功能的形式实现并作为独立产品销售或使用时,可存储在一个移动终端可读取存储介质中,即,本申请还提供一种存储有程序数据的存储装置,所述程序数据能够被执行以实现上述实施例的方法,该存储装置可以为如U盘、光盘、服务器等。也就是说,本申请可以以软件产品的形式体现出来,其包括若干指令用以使得一台智能终端执行各个实施例所述方法的全部或部分步骤。
[0114] 区别于现有技术,本申请能够利用带有帧级别的情绪识别标签的训练数据对预训练的语音大模型进行训练,以得到情绪识别模型,能够提高情绪识别模型的训练效率,且训练数据为带有帧级别的情绪识别标签的训练数据,能够使得训练数据被标签标记的细粒度精确到帧级别,因此能够提高对语音大模型的训练精准度,进而能够提高训练所得的情绪识别模型的情绪识别准确性。
[0115] 在本申请所提供的几个实施例中,应该理解到,所揭露的方法和装置,可以通过其它的方式实现。例如,以上所描述的装置实施方式仅仅是示意性的,例如,模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
[0116] 以上所述仅为本申请的实施方式,并非因此限制本申请的专利范围,凡是利用本申请说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本申请的专利保护范围内。