首页 / 一种复杂环境下语音特征映射方法

一种复杂环境下语音特征映射方法有效专利 发明

技术领域

[0001] 本发明属于语音信号处理技术领域,特别涉及一种复杂环境下语音特征映射方法。技术背景
[0002] 随着计算机技术的深入发展,模式识别已经成为一种为人类带来巨大便利的实用技术,特别是在人机交互领域。模式识别能够为人机交互提供新的方式,为用户带来更加自然和更有沉浸感的交互体验。而语音识别是模式识别中非常重要的一个模块,在人类自然的交互中,语音交流是最为重要的一种方式,语音识别的运用使得人能够以自然的交互方式与机器进行交互,这种交互方式的便利性可大大缓解人类在人机交互中的压力,丰富了人与机器交互的方式,也使得人机交互更加的丰富和多样。近几十年语音识别已经发展的足够完美,识别率也足够高,然而这些结果都是在实验室内得出的结果,也就是说,在干净环境下,语音识别的结果是足够好的。但是在现实生活中,环境的复杂度是无法估量的,人们几乎不可能保证所身处的环境都是干净的环境,人们的周边充斥着噪音,这些噪音可能是周围自然环境所发出的噪声,也可能是其他人所发出的噪声,也可能是录音设备的噪声。也就是说,语音识别在自然的应用中是处于被噪声包围的复杂环境下的,而语音识别亟需解决的痛点就是在复杂环境下的识别率并不高,甚至是其结果是不被人们所接受的。
[0003] 语音识别的结果受到周围环境的影响,在实验室环境(即干净环境下)其结果足够好,但是在现实环境(即复杂环境)中其结果是不被人们所接受的。这是亟需解决的问题。语音识别的过程包括模型训练和识别两个过程,而模型训练一般使用的都是干净环境下的语音信号,识别过程使用的是复杂环境下即真实的语音信号。要解决这个问题就需要从如何使复杂环境下的语音信号与干净环境下的语音信号进行匹配入手。在语音信号的处理过程中,有两个非常重要的环节,特征提取和建立模型,当今的解决方案大致便可以分为两种,一种是从特征入手,另一种是从模型入手。
[0004] 特征映射就是从特征入手的一种解决方案。通过特征映射函数的作用,将复杂环境下的语音信号特征转换成可以近似视为干净环境下的语音信号特征。可大大提高现实应用中语音识别的准确率,提高语音识别系统的鲁棒性。

具体实施方式

[0017] 为了便于本领域普通技术人员理解和实施本发明,下面结合附图及实施例对本发明作进一步的详细描述,应当理解,此处所描述的实施示例仅用于说明和解释本发明,并不用于限定本发明。
[0018] 请见图1,本发明提供的一种复杂环境下语音特征映射方法,包括以下步骤:
[0019] 步骤1:提取干净环境下的语音信号的特征;
[0020] 具体实现包括以下子步骤:
[0021] 步骤1.1:对干净环境下得到的语音信号进行预处理,包括预加重、分帧、加窗;
[0022] 步骤1.2:将步骤1.1中预处理后的信号提取Mel倒谱系数特征;
[0023] 步骤1.3:使用混合高斯模型对步骤1.2中得到的特征建立统计模型,得到干净环境下语音信号的模型Λ。
[0024] 本实施例中对干净环境下语音的训练,高斯混合模型中的高斯数应当视实际情况而定,在训练过程中应当兼顾运行速度和准确度两个方面。
[0025] 步骤2:对复杂环境下的语音进行特征提取;
[0026] 具体实现包括以下子步骤:
[0027] 步骤2.1:对复杂环境下得到的语音信号进行预处理,包括预加重、分帧、加窗;
[0028] 本实施例中对复杂环境下的语音进行特征提取,步骤2.1中分帧的帧数n应当与步骤1.1中的帧数n保持一致,即干净环境下的语音帧数和复杂环境下的语音帧数保持一致;
[0029] 步骤2.2:将步骤2.1中预处理后的信号提取Mel倒谱系数特征,记为Y=[y1,y2,...,yi,...,yn],yi表示复杂环境下第i帧的语音特征。
[0030] 步骤3:利用特征映射方法对复杂环境下的语音特征进行映射;具体实现包括以下子步骤:
[0031] 步骤3.1:将特征的每一帧yi都进行映射,映射形式为:
[0032] xi=A·yi+B,简记为:xi=F(yi)
[0033] 其中yi为复杂环境下语音特征的第i帧语音特征,xi为通过特征映射函数后得到的第i帧特征,A为增益矩阵,B为偏移矩阵;
[0034]
[0035] A为d行d列的对角矩阵,B为d行1列的矩阵(d为帧长,在分帧的步骤中设置);
[0036] 步骤3.2:根据最大似然函数和已知模型Λ对F进行参数估计:
[0037]
[0038] 其中Λ为步骤1.3中训练的干净语音模型;
[0039] 步骤3.3:根据当前Ft(当前帧的映射函数)的参数来构造辅助函数计算新的F(新的一帧的映射函数)的参数:
[0040]
[0041] 其中,θ表示语音信号状态序列,X表示语音信号特征,C表示所处高斯分量,m表示混合高斯模型的高斯数,n表示语音信号的帧数;
[0042]
[0043] p(Cj|Λ)=ωj
[0044]
[0045] ωj表示第j个高斯的权重,μj和Σj分别为第j个高斯分量的均值和方差,为方便记为:
[0046]
[0047] 步骤3.4:由步骤3.3可得到辅助函数为:
[0048]
[0049] 对各项展开可得:
[0050]
[0051] 其中μj,k,δj,k分别表示F的第k个参数的第j个高斯的均值和标准差,yi,k表示映射前的第i帧语音特征的第k个矢量,ak,bk分别为F中增益矩阵a和偏移矩阵b的第k个参数;
[0052] 步骤3.5:对步骤3.4中的展开式分别求F关于ak,bk的偏导数:
[0053]
[0054]
[0055] 将以上两式展开可得:
[0056]
[0057]
[0058] 步骤3.6:为方便计算,分别将以下统计量替代步骤3.5中的统计量:
[0059]
[0060]
[0061]
[0062]
[0063]
[0064] 则步骤3.5中的方程式可写为:
[0065]
[0066]
[0067] 可解上述方程组得:
[0068]
[0069]
[0070] 步骤3.7:将解得的A,B代入步骤3.1中即可求得经过映射后的语音信号特征X(可近似视为干净环境下的语音特征)。
[0071] 步骤4:模型匹配与识别;当得到复杂环境下通过特征映射之后的特征后,对得到的特征建立统计模型,采用HMM-GMM模型,然后进行模型匹配,进行语音识别/说话人识别;
[0072] 将步骤3中求得的语音特征X进行建模并用最大后验概率算法与已知模型Λ进行匹配,从而得到语音识别/说话人识别结果。
[0073] 本实施例中描述的复杂环境是指在现实应用中的环境下,由于现实环境中存在着各种各样的噪音,因此它是一种复杂的环境,这种环境下周围的噪声是不可估的。干净环境是指在理想的实验室中的环境,对周围环境要求较高,而无噪声环境指周围环境无明显的干扰,离干净环境的要求有一定的差距。
[0074] 应当理解的是,本说明书未详细阐述的部分均属于现有技术。
[0075] 应当理解的是,上述针对较佳实施例的描述较为详细,并不能因此而认为是对本发明专利保护范围的限制,本领域的普通技术人员在本发明的启示下,在不脱离本发明权利要求所保护的范围情况下,还可以做出替换或变形,均落入本发明的保护范围之内,本发明的请求保护范围应以所附权利要求为准。

当前第1页 第1页 第2页 第3页