本公开涉及音频处理技术领域,具体地,涉及一种音频生成方法、装置、存储介质及电子设备。
背景技术:
语音合成技术是一种通过机械的、电子的方法产生人造语音的技术。语音合成技术又称文语转换技术,具体用于将计算机自己产生的、或外部用户输入的文字信息转变为人可以听懂的汉语、英语、法语等音频。但是,目前通过计算机生成的人造语音自然度较低,与真实的人的语音具有明显差异。
技术实现要素:
提供该发明内容部分以便以简要的形式介绍构思,这些构思将在后面的具体实施方式部分被详细描述。该发明内容部分并不旨在标识要求保护的技术方案的关键特征或必要特征,也不旨在用于限制所要求的保护的技术方案的范围。
第一方面,本公开提供一种音频生成方法,所述方法包括:获取目标用户的音色特征信息;将所述音色特征信息与待合成文本输入语音合成模型,得到与所述待合成文本对应的音频;其中,所述音色特征信息是通过将所述目标用户的语音输入音色编码器得到的,所述音色编码器是通过与文本编码器进行端到端的联合训练后得到的。
第二方面,本公开提供一种音频生成装置,所述装置包括:获取模块,用于获取目标用户的音色特征信息;合成模块,用于将所述音色特征信息与待合成文本输入语音合成模型,得到与所述待合成文本对应的音频;其中,所述音色特征信息是通过将所述目标用户的语音输入音色编码器得到的,所述音色编码器是通过与文本编码器进行端到端的联合训练后得到的。
第三方面,本公开提供一种计算机可读介质,其上存储有计算机程序,该程序被处理装置执行时实现第一方面所述方法的步骤。
第四方面,本公开提供一种电子设备,包括:存储装置,其上存储有计算机程序;处理装置,用于执行所述存储装置中的所述计算机程序,以实现第一方面所述方法的步骤。
采用上述技术方案,至少可以达到如下技术效果:
将音色编码器与文本编码器进行端到端的联合训练,可以使训练完成的文本编码器能够从语音中提取出更多的文本特征和更少的音色特征,并可以使音色编码器能够从语音中提取出更多的音色特征和更少的文本特征。将目标用户的语音输入训练完成的音色编码器可得到目标用户的音色特征信息,将该音色特征信息与待合成文本输入语音合成模型,可得到与待合成文本对应的音频。由于通过音色编码器得到的音色特征信息包括了该目标用户较多的音色特征,因而根据音色特征信息与待合成文本合成的语音与该目标用户的自然发音会更加相似。并且,由于通过音色编码器得到的音色特征信息中(由训练样本导致的)文本特征很少,因而音色特征信息中的文本特征(等噪声)对新合成的音频干扰较小,进而使合成的音频与目标用户念读待合成文本的语音更加相似。因此,采用本公开的上述技术方案,可以实现根据任意文本拟合出准确地且自然的以目标用户的声音念读该任意文本的音频。
本公开的其他特征和优点将在随后的具体实施方式部分予以详细说明。
附图说明
结合附图并参考以下具体实施方式,本公开各实施例的上述和其他特征、优点及方面将变得更加明显。贯穿附图中,相同或相似的附图标记表示相同或相似的元素。应当理解附图是示意性的,原件和元素不一定按照比例绘制。在附图中:
图1是根据本公开一示例性实施例示出的一种音频生成方法的流程图。
图2是根据本公开一示例性实施例示出的一种联合训练架构图。
图3是根据本公开一示例性实施例示出的另一种联合训练架构图。
图4是根据本公开一示例性实施例示出的一种音频生成装置的框图。
图5是根据本公开一示例性实施例示出的一种电子设备的框图。
具体实施方式
下面将参照附图更详细地描述本公开的实施例。虽然附图中显示了本公开的某些实施例,然而应当理解的是,本公开可以通过各种形式来实现,而且不应该被解释为限于这里阐述的实施例,相反提供这些实施例是为了更加透彻和完整地理解本公开。应当理解的是,本公开的附图及实施例仅用于示例性作用,并非用于限制本公开的保护范围。
应当理解,本公开的方法实施方式中记载的各个步骤可以按照不同的顺序执行,和/或并行执行。此外,方法实施方式可以包括附加的步骤和/或省略执行示出的步骤。本公开的范围在此方面不受限制。
本文使用的术语“包括”及其变形是开放性包括,即“包括但不限于”。术语“基于”是“至少部分地基于”。术语“一个实施例”表示“至少一个实施例”;术语“另一实施例”表示“至少一个另外的实施例”;术语“一些实施例”表示“至少一些实施例”。其他术语的相关定义将在下文描述中给出。
需要注意,本公开中提及的“第一”、“第二”等概念仅用于对不同的装置、模块或单元进行区分,并非用于限定这些装置、模块或单元所执行的功能的顺序或者相互依存关系。
需要注意,本公开中提及的“一个”、“多个”的修饰是示意性而非限制性的,本领域技术人员应当理解,除非在上下文另有明确指出,否则应该理解为“一个或多个”。
本公开实施方式中的多个装置之间所交互的消息或者信息的名称仅用于说明性的目的,而并不是用于对这些消息或信息的范围进行限制。
在对本公开的技术方案进行详细地实施例说明之前,需声明的是,本公开实施例中所使用的与用户相关的信息,如用户的语音、音色特征信息,均为在获得用户授权或同意的情况下采集/使用的。
图1是根据本公开一示例性实施例示出的一种音频生成方法的流程图,如图1所示,该音频生成方法包括以下步骤:
s11、获取目标用户的音色特征信息;其中,所述音色特征信息是通过将所述目标用户的语音输入音色编码器得到的,所述音色编码器是通过与文本编码器进行端到端的联合训练后得到的。
一种可实现的实施方式,所述获取目标用户的音色特征信息,包括:在目标用户允许的情况下,通过目标用户的终端录制目标用户的语音,将该语音输入i-vector、d-vector、x-vector中的任一模型,得到该任一模型倒数第二层的speakerembedding,将该speakerembedding作为目标用户的音色特征信息。
但是,考虑到将i-vector、d-vector、x-vector中的任一模型的speakerembedding与待合成文本合成音频时,由于i-vector、d-vector、x-vector不注重提取语音中的音色特征细节,因而得到的该音频与目标用户的自然音相差较大。为了使目标用户的音色特征信息包括更丰富的细节音色特征,另一种可实现的实施方式,所述获取目标用户的音色特征信息,包括:在目标用户允许的情况下,通过目标用户的终端录制目标用户的语音,将该语音输入训练完成的音色编码器,得到音色编码器输出的音色特征信息,并且可以保存该音色特征信息以备使用。
其中,音色编码器是通过与文本编码器进行端到端的联合训练后得到的。一种可实现的实施方式,可以采用与量子化变分自编码机(vectorquantizedvae,简称vq-vae)相似的非监督学习架构来对音色编码器和文本编码器进行端到端的联合训练。具体地,对所述音色编码器和所述文本编码器进行端到端的联合训练,包括:
将语音样本分别输入所述音色编码器和所述文本编码器,得到所述音色编码器输出的待合成音色特征信息和所述文本编码器输出的待合成文本特征信息;将所述待合成音色特征信息和所述待合成文本特征信息输入语音生成器,得到合成语音,根据所述合成语音与所述语音样本的相似度训练所述音色编码器和所述文本编码器。
可选地,根据所述合成语音与所述语音样本的相似度训练所述音色编码器和所述文本编码器,包括在所述合成语音与所述语音样本的相似度小于预设阈值时,根据所述合成语音与所述语音样本的差异调整所述音色编码器和所述文本编码器的模型参数,直到所述合成语音与所述语音样本的相似度大于预设阈值时,得到训练完成的所述音色编码器。
其中,语音生成器、音色编码器和文本编码器共享一个codebook,语音生成器根据该codebook对待合成音色特征信息和待合成文本特征信息进行解码,以还原出语音样本。在具体实施时,语音生成器的模型架构可采用与wavenet模型(序列生成模型,用于语音生成建模)相类似的模型架构。
示例地,采用vq-vae框架对音色编码器与文本编码器进行端到端的联合训练过程如图2所示。其中,feed-forwardlayer和vectorquantization可为文本编码器的处理层,也可作为编码器与解码器之间的隐层。1d-cnn pooling和vectorquantization可为音色编码器的处理层,也可作为编码器eecoder与解码器decoder之间的隐层。详细地,将语音样本输入文本编码器,得到文本编码器输出的第一文本编码结果,将该第一文本编码结果乘以若干层参数矩阵feed-forwardlayer得到第二文本编码结果,将该第二文本编码结果进行压缩量化vectorquantization(简称vq,是一种基于块编码规则的有损数据压缩方法。将若干个标量数据组构成一个矢量,然后在矢量空间给以整体量化,从而压缩了数据而不损失多少信息)得到待合成文本特征信息phonemevq。同时,将语音样本输入音色编码器,得到音色编码器输出的第一音色编码结果,将该第一音色编码结果经过一维卷积层和池化层1d-cnn pooling后进行压缩量化vectorquantization,得到待合成音色特征信息speakervq。将待合成音色特征信息speakervq和待合成文本特征信息phonemevq输入语音生成器wavenetdecoder,得到合成语音。根据合成语音与语音样本计算损失信息,根据该损失信息调整音色编码器和文本编码器的模型参数。
为了使音色编码器和文本编码器更好的将语音样本中的文本特征和音色特征分离开,得到待合成音色特征信息和待合成文本特征信息。可以在对所述音色编码器和所述文本编码器进行端到端的联合训练的过程中,对音色编码器和文本编码器添加辅助训练。示例地,如图3所示。利用音色分类训练speakerclassifier对音色编码器进行辅助训练,以将语音样本中的音色特征汇聚到待合成音色特征信息。利用对抗训练speakeradversarialtraining对文本编码器进行辅助训练,以减少文本编码器输出的待合成文本特征信息中的音色特征(即将文本编码器输出的待合成文本特征信息中的音色特征消除)。
为了使得音色编码器和文本编码器的端到端联合训练过程更加稳定/鲁棒,一种优选的实施方式是先对音色编码器和文本编码器进行预训练,然后在对图3所示的端到端联合训练模型进行全局微调finetune。
具体地,在对所述音色编码器和所述文本编码器进行端到端的联合训练之前,对音色编码器进行预训练包括:利用音色分类器对所述音色编码器输出的所述待合成音色特征信息进行分类,得到所述音色分类器输出的分类结果,根据所述分类结果调整所述音色编码器的模型参数,在所述分类结果表征所述待合成音色特征信息对应的类别与所述语音样本的类别相同时,得到预训练完成的所述音色编码器。
示例地,语音样本为多个人的语音样本,对应多个人的待合成音色特征信息。根据该多个人的待合成音色特征信息以及各待合成音色特征信息对应的说话人标签对音色分类器进行分类训练。在分类训练过程中,根据每一次的分类结果调整音色编码器的模型参数,直到分类结果表征每一待合成音色特征信息对应的类别与其语音样本的类别(即对应的说话人标签)相同时,得到预训练完成的音色编码器。为了避免音色编码器过拟合,可以在对多个人的待合成音色特征信息的分类结果中,预设数量或占比的待合成音色特征信息被正确分类到对应的类别时,得到预训练完成的音色编码器。
同时,在对所述音色编码器和所述文本编码器进行端到端的联合训练之前,对文本编码器进行预训练包括:
利用音色鉴别器对所述文本编码器输出的所述待合成文本特征信息进行音色鉴别,得到鉴别输出值,根据所述鉴别输出值调整所述文本编码器的模型参数,在所述鉴别输出值处于预设区间时,得到预训练完成的所述文本编码器。
示例地,语音样本为多个人的语音样本,对应多个待合成文本特征信息。根据该多个人的语音样本以及该多个待合成文本特征信息进行对抗训练。在对抗训练过程中,将待合成文本特征信息输入音色鉴别器进行鉴别,音色鉴别器输出一个鉴别输出值,该鉴别输出值表征该待合成文本特征信息是文本编码器合成的数据的概率,或者该鉴别输出值表征该待合成文本特征信息是语音样本的概率。根据音色鉴别器输出的鉴别输出值调整文本编码器的模型参数,直到在鉴别输出值趋近于0.5时,得到预训练完成的文本编码器。其中预设区间为包括0.5的区间,例如为(0.45,0.55)。
s12、将所述音色特征信息与待合成文本输入语音合成模型,得到与所述待合成文本对应的音频。
所述语音合成模型是通过如下方式训练得到的:将音频样本输入所述音色编码器,得到音色特征信息样本;将所述音频样本、所述音色特征信息样本、与所述音频样本对应的文本样本作为所述语音合成模型的训练样本;根据所述训练样本训练得到所述语音合成模型。
其中,音色特征信息样本、与音频样本对应的文本样本作为语音合成模型的输入数据,音频样本用于与语音合成模型的输出数据进行损失计算。
在具体实施时,语音合成模型的架构可采用与tacotron模型、tts或者avc(accentvoiceconversion)模型相类似的架构。
所述语音合成模型包括序列特征提取模块、语音合成子模块、声码器;所述序列特征提取模块用于,从所述待合成文本中提取待合成文本序列;所述语音合成子模块用于,根据所述待合成文本序列与所述音色特征信息合成梅尔频谱;所述声码器用于,根据所述梅尔频谱生成与所述待合成文本对应的所述音频。
详细地,将目标用户的音色特征信息与待合成文本输入语音合成模型,语音合成模型的序列特征提取模块(如cbhg-encoder)从待合成文本中提取出待合成文本序列,该待合成文本序列中至少包括音素、声调、分词边界和韵律边界序列中的至少一种。接着语音合成子模块(如zone-out-lstmdecoder模型)根据待合成文本序列与音色特征信息合成梅尔频谱。进一步地,声码器(如universalwavernn声码器)根据梅尔频谱生成音频。
由于目标用户的音色特征信息是通过音色编码器得到的具有丰富音色特征的信息。因而一种可实现的实施方式,可以根据该音色特征信息确定attention注意力机制,在语音合成子模块中添加该attention注意力机制,以使语音合成子模块根据attention注意力机制得到准确率(即与目标用户的自然语音更相似)更高的梅尔频谱,根据准确率更高的梅尔频谱生成的音频也与目标用户的自然发音更相似。
采用这种对音色编码器和文本编码器进行端到端的联合训练的方式得到的音色编码器,可以从语音的波形层面提取到目标用户的音色特征信息。通过这种方式得到的音色特征信息与通过i-vector、d-vector或x-vector从输入的mfcc参数中提取到的音色特征信息相比较,通过音色编码器得到的音色特征信息能够包括更多的音色特征细节并能去除更多的干扰信息。根据i-vector、d-vector或x-vector提取的speakerembedding合成音频时,由于其音色特征细节不够丰满而常常导致音色表征不够鲁棒,遇到带混响和噪声的语音时,复刻效果较差。而根据本公开中,通过音色编码器得到的音色特征信息合成音频时,对噪声和极端声音的复刻表现更优。
采用上述方法,通过将音色编码器与文本编码器进行端到端的联合训练,可以使训练完成的文本编码器从语音中提取出更多的文本特征和更少的音色特征,并可以使音色编码器从语音中提取出更多的音色特征和更少的文本特征。将目标用户的语音输入训练完成的音色编码器可得到目标用户的音色特征信息,将该音色特征信息与待合成文本输入语音合成模型,可得到与待合成文本对应的音频。由于通过音色编码器得到的音色特征信息包括了该目标用户更多的音色特征,因而根据音色特征信息与待合成文本合成的语音与该目标用户的自然发音更加相似。并且,由于通过音色编码器得到的音色特征信息中(由训练样本导致的)文本特征很少,因而音色特征信息中的文本特征对新合成的音频干扰较小,进而使合成的音频与目标用户念读待合成文本的语音更加相似。因此,采用本公开的上述技术方案,可以实现根据任意文本拟合出更加准确地且自然的以目标用户的声音念读该任意文本的音频。
在教育场景下,所述待合成文本为教学例句,所述方法还可以包括:通过所述目标用户的终端展示所述教学例句以及与所述教学例句对应的所述音频,以使所述目标用户通过所述音频学习所述教学例句的发音。
采用这种方式,在语言教学场景下,给出教学文本,用户通过点击音频按钮以播放该教学文本对应的标准发音音频。用户通过模仿该标准发音音频来学习该教学文本的正确发音。由于该标准发音音频是以该用户的声音进行发音的,因而不仅可以针对不同用户提供不同的个性化标准发音音频,还可以避免因模仿不同音色的发音人的发音而导致的发音模仿困难问题,降低发音模仿困难度,使得发音学习效果较好,提升学习效率。
本公开的任一上述组合方法均可以应用于客户端或服务器,对此本公开不作具体的限制。
图4是根据本公开一示例性实施例示出的一种音频生成装置的框图,如图4所示,该装置400包括:
获取模块410,用于获取目标用户的音色特征信息;合成模块420,用于将所述音色特征信息与待合成文本输入语音合成模型,得到与所述待合成文本对应的音频;其中,所述音色特征信息是通过将所述目标用户的语音输入音色编码器得到的,所述音色编码器是通过与文本编码器进行端到端的联合训练后得到的。
在一种可能的实施方式中,该装置400包括联合训练模块,用于将语音样本分别输入所述音色编码器和所述文本编码器,得到所述音色编码器输出的待合成音色特征信息和所述文本编码器输出的待合成文本特征信息;将所述待合成音色特征信息和所述待合成文本特征信息输入语音生成器,得到合成语音,根据所述合成语音与所述语音样本的相似度训练所述音色编码器和所述文本编码器。
在一种可能的实施方式中,该装置400还包括第一预训练模块,用于在对所述音色编码器和所述文本编码器进行端到端的联合训练之前,利用音色分类器对所述音色编码器输出的所述待合成音色特征信息进行分类,得到所述音色分类器输出的分类结果,根据所述分类结果调整所述音色编码器的模型参数,在所述分类结果表征所述待合成音色特征信息对应的类别与所述语音样本的类别相同时,得到预训练完成的所述音色编码器。
在一种可能的实施方式中,该装置400还包括第二预训练模块,用于在对所述音色编码器和所述文本编码器进行端到端的联合训练之前,利用音色鉴别器对所述文本编码器输出的所述待合成文本特征信息进行音色鉴别,得到鉴别输出值,根据所述鉴别输出值调整所述文本编码器的模型参数,在所述鉴别输出值处于预设区间时,得到预训练完成的所述文本编码器。
在一种可能的实施方式中,所述语音合成模型包括序列特征提取模块、语音合成子模块、声码器;所述序列特征提取模块用于,从所述待合成文本中提取待合成文本序列;所述语音合成子模块用于,根据所述待合成文本序列与所述音色特征信息合成梅尔频谱;所述声码器用于,根据所述梅尔频谱生成与所述待合成文本对应的所述音频。
在一种可能的实施方式中,该装置400还包括训练模块,用于通过如下方式训练得到所述语音合成模型:将音频样本输入所述音色编码器,得到音色特征信息样本;将所述音频样本、所述音色特征信息样本、与所述音频样本对应的文本样本作为所述语音合成模型的训练样本;根据所述训练样本训练得到所述语音合成模型。
在一种可能的实施方式中,所述待合成文本为教学例句,所述装置400还包括展示模块,用于通过所述目标用户的终端展示所述教学例句以及与所述教学例句对应的所述音频,以使所述目标用户通过所述音频学习所述教学例句的发音。
采用这种装置,通过将音色编码器与文本编码器进行端到端的联合训练,可以使训练完成的文本编码器从语音中提取出更多的文本特征和更少的音色特征,并可以使音色编码器从语音中提取出更多的音色特征和更少的文本特征。将目标用户的语音输入训练完成的音色编码器可得到目标用户的音色特征信息,将该音色特征信息与待合成文本输入语音合成模型,可得到与待合成文本对应的音频。由于通过音色编码器得到的音色特征信息包括了该目标用户更多的音色特征,因而根据音色特征信息与待合成文本合成的语音与该目标用户的自然发音更加相似。并且,由于通过音色编码器得到的音色特征信息中(由训练样本导致的)文本特征很少,因而音色特征信息中的文本特征对新合成的音频干扰较小,进而使合成的音频与目标用户念读待合成文本的语音更加相似。因此,采用本公开的上述技术方案,可以实现根据任意文本拟合出更加准确地且自然的以目标用户的声音念读该任意文本的音频。
上述装置400的各个模块的执行步骤,已经在相关的方法实施例中进行了详细的阐述,此处不再赘述。
下面参考图5,其示出了适于用来实现本公开实施例的电子设备600的结构示意图。本公开实施例中的终端设备可以包括但不限于诸如移动电话、笔记本电脑、数字广播接收器、pda(个人数字助理)、pad(平板电脑)、pmp(便携式多媒体播放器)、车载终端(例如车载导航终端)等等的移动终端以及诸如数字tv、台式计算机等等的固定终端。图5示出的电子设备仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
如图5所示,电子设备600可以包括处理装置(例如中央处理器、图形处理器等)601,其可以根据存储在只读存储器(rom)602中的程序或者从存储装置608加载到随机访问存储器(ram)603中的程序而执行各种适当的动作和处理。在ram603中,还存储有电子设备600操作所需的各种程序和数据。处理装置601、rom602以及ram603通过总线604彼此相连。输入/输出(i/o)接口605也连接至总线604。
通常,以下装置可以连接至i/o接口605:包括例如触摸屏、触摸板、键盘、鼠标、摄像头、麦克风、加速度计、陀螺仪等的输入装置606;包括例如液晶显示器(lcd)、扬声器、振动器等的输出装置607;包括例如磁带、硬盘等的存储装置608;以及通信装置609。通信装置609可以允许电子设备600与其他设备进行无线或有线通信以交换数据。虽然图5示出了具有各种装置的电子设备600,但是应理解的是,并不要求实施或具备所有示出的装置。可以替代地实施或具备更多或更少的装置。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在非暂态计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信装置609从网络上被下载和安装,或者从存储装置608被安装,或者从rom602被安装。在该计算机程序被处理装置601执行时,执行本公开实施例的方法中限定的上述功能。
需要说明的是,本公开上述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(ram)、只读存储器(rom)、可擦式可编程只读存储器(eprom或闪存)、光纤、便携式紧凑磁盘只读存储器(cd-rom)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、rf(射频)等等,或者上述的任意合适的组合。
在一些实施方式中,客户端、服务器可以利用诸如http(hypertexttransferprotocol,超文本传输协议)之类的任何当前已知或未来研发的网络协议进行通信,并且可以与任意形式或介质的数字数据通信(例如,通信网络)互连。通信网络的示例包括局域网(“lan”),广域网(“wan”),网际网(例如,互联网)以及端对端网络(例如,adhoc端对端网络),以及任何当前已知或未来研发的网络。
上述计算机可读介质可以是上述电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。
上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备:获取目标用户的音色特征信息;将所述音色特征信息与待合成文本输入语音合成模型,得到与所述待合成文本对应的音频;其中,所述音色特征信息是通过将所述目标用户的语音输入音色编码器得到的,所述音色编码器是通过与文本编码器进行端到端的联合训练后得到的。
可以以一种或多种程序设计语言或其组合来编写用于执行本公开的操作的计算机程序代码,上述程序设计语言包括但不限于面向对象的程序设计语言—诸如java、smalltalk、c ,还包括常规的过程式程序设计语言——诸如“c”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(lan)或广域网(wan)——连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开实施例中所涉及到的模块可以通过软件的方式实现,也可以通过硬件的方式来实现。其中,模块的名称在某种情况下并不构成对该模块本身的限定。
本文中以上描述的功能可以至少部分地由一个或多个硬件逻辑部件来执行。例如,非限制性地,可以使用的示范类型的硬件逻辑部件包括:现场可编程门阵列(fpga)、专用集成电路(asic)、专用标准产品(assp)、片上系统(soc)、复杂可编程逻辑设备(cpld)等等。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(ram)、只读存储器(rom)、可擦除可编程只读存储器(eprom或快闪存储器)、光纤、便捷式紧凑盘只读存储器(cd-rom)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
根据本公开的一个或多个实施例,示例1提供了一种音频生成方法,包括获取目标用户的音色特征信息;将所述音色特征信息与待合成文本输入语音合成模型,得到与所述待合成文本对应的音频;其中,所述音色特征信息是通过将所述目标用户的语音输入音色编码器得到的,所述音色编码器是通过与文本编码器进行端到端的联合训练后得到的。
根据本公开的一个或多个实施例,示例2提供了示例1的方法,对所述音色编码器和所述文本编码器进行端到端的联合训练,包括:将语音样本分别输入所述音色编码器和所述文本编码器,得到所述音色编码器输出的待合成音色特征信息和所述文本编码器输出的待合成文本特征信息;将所述待合成音色特征信息和所述待合成文本特征信息输入语音生成器,得到合成语音,根据所述合成语音与所述语音样本的相似度训练所述音色编码器和所述文本编码器。
根据本公开的一个或多个实施例,示例3提供了示例2的方法,在对所述音色编码器和所述文本编码器进行端到端的联合训练之前,包括:利用音色分类器对所述音色编码器输出的所述待合成音色特征信息进行分类,得到所述音色分类器输出的分类结果,根据所述分类结果调整所述音色编码器的模型参数,在所述分类结果表征所述待合成音色特征信息对应的类别与所述语音样本的类别相同时,得到预训练完成的所述音色编码器。
根据本公开的一个或多个实施例,示例4提供了示例2的方法,在对所述音色编码器和所述文本编码器进行端到端的联合训练之前,包括:利用音色鉴别器对所述文本编码器输出的所述待合成文本特征信息进行音色鉴别,得到鉴别输出值,根据所述鉴别输出值调整所述文本编码器的模型参数,在所述鉴别输出值处于预设区间时,得到预训练完成的所述文本编码器。
根据本公开的一个或多个实施例,示例5提供了示例1的方法,所述语音合成模型包括序列特征提取模块、语音合成子模块、声码器;所述序列特征提取模块用于,从所述待合成文本中提取待合成文本序列;所述语音合成子模块用于,根据所述待合成文本序列与所述音色特征信息合成梅尔频谱;所述声码器用于,根据所述梅尔频谱生成与所述待合成文本对应的所述音频。
根据本公开的一个或多个实施例,示例6提供了示例5的方法,所述语音合成模型是通过如下方式训练得到的:将音频样本输入所述音色编码器,得到音色特征信息样本;将所述音频样本、所述音色特征信息样本、与所述音频样本对应的文本样本作为所述语音合成模型的训练样本;根据所述训练样本训练得到所述语音合成模型。
根据本公开的一个或多个实施例,示例7提供了示例1-6的方法,所述待合成文本为教学例句,所述方法还包括:通过所述目标用户的终端展示所述教学例句以及与所述教学例句对应的所述音频,以使所述目标用户通过所述音频学习所述教学例句的发音。
根据本公开的一个或多个实施例,示例8提供了一种音频生成装置,包括:获取模块,用于获取目标用户的音色特征信息;合成模块,用于将所述音色特征信息与待合成文本输入语音合成模型,得到与所述待合成文本对应的音频;其中,所述音色特征信息是通过将所述目标用户的语音输入音色编码器得到的,所述音色编码器是通过与文本编码器进行端到端的联合训练后得到的。
根据本公开的一个或多个实施例,示例9提供了示例8的装置,该装置还包括联合训练模块,用于将语音样本分别输入所述音色编码器和所述文本编码器,得到所述音色编码器输出的待合成音色特征信息和所述文本编码器输出的待合成文本特征信息;将所述待合成音色特征信息和所述待合成文本特征信息输入语音生成器,得到合成语音,根据所述合成语音与所述语音样本的相似度训练所述音色编码器和所述文本编码器。
根据本公开的一个或多个实施例,示例10提供了示例9的装置,该装置还包括第一预训练模块,用于在对所述音色编码器和所述文本编码器进行端到端的联合训练之前,利用音色分类器对所述音色编码器输出的所述待合成音色特征信息进行分类,得到所述音色分类器输出的分类结果,根据所述分类结果调整所述音色编码器的模型参数,在所述分类结果表征所述待合成音色特征信息对应的类别与所述语音样本的类别相同时,得到预训练完成的所述音色编码器。
根据本公开的一个或多个实施例,示例11提供了示例9的装置,该装置还包括第二预训练模块,用于在对所述音色编码器和所述文本编码器进行端到端的联合训练之前,利用音色鉴别器对所述文本编码器输出的所述待合成文本特征信息进行音色鉴别,得到鉴别输出值,根据所述鉴别输出值调整所述文本编码器的模型参数,在所述鉴别输出值处于预设区间时,得到预训练完成的所述文本编码器。
根据本公开的一个或多个实施例,示例12提供了示例8的装置,所述语音合成模型包括序列特征提取模块、语音合成子模块、声码器;所述序列特征提取模块用于,从所述待合成文本中提取待合成文本序列;所述语音合成子模块用于,根据所述待合成文本序列与所述音色特征信息合成梅尔频谱;所述声码器用于,根据所述梅尔频谱生成与所述待合成文本对应的所述音频。
根据本公开的一个或多个实施例,示例13提供了示例12的装置,该装置还包括训练模块,用于通过如下方式训练得到所述语音合成模型:将音频样本输入所述音色编码器,得到音色特征信息样本;将所述音频样本、所述音色特征信息样本、与所述音频样本对应的文本样本作为所述语音合成模型的训练样本;根据所述训练样本训练得到所述语音合成模型。
根据本公开的一个或多个实施例,示例14提供了示例8-13的装置,所述装置还包括展示模块,用于通过所述目标用户的终端展示所述教学例句以及与所述教学例句对应的所述音频,以使所述目标用户通过所述音频学习所述教学例句的发音。
以上描述仅为本公开的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本公开中所涉及的公开范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述公开构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本公开中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。
此外,虽然采用特定次序描绘了各操作,但是这不应当理解为要求这些操作以所示出的特定次序或以顺序次序执行来执行。在一定环境下,多任务和并行处理可能是有利的。同样地,虽然在上面论述中包含了若干具体实现细节,但是这些不应当被解释为对本公开的范围的限制。在单独的实施例的上下文中描述的某些特征还可以组合地实现在单个实施例中。相反地,在单个实施例的上下文中描述的各种特征也可以单独地或以任何合适的子组合的方式实现在多个实施例中。
尽管已经采用特定于结构特征和/或方法逻辑动作的语言描述了本主题,但是应当理解所附权利要求书中所限定的主题未必局限于上面描述的特定特征或动作。相反,上面所描述的特定特征和动作仅仅是实现权利要求书的示例形式。关于上述实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
1.一种音频生成方法,其特征在于,所述方法包括:
获取目标用户的音色特征信息;
将所述音色特征信息与待合成文本输入语音合成模型,得到与所述待合成文本对应的音频;
其中,所述音色特征信息是通过将所述目标用户的语音输入音色编码器得到的,所述音色编码器是通过与文本编码器进行端到端的联合训练后得到的。
2.根据权利要求1所述的方法,其特征在于,对所述音色编码器和所述文本编码器进行端到端的联合训练,包括:
将语音样本分别输入所述音色编码器和所述文本编码器,得到所述音色编码器输出的待合成音色特征信息和所述文本编码器输出的待合成文本特征信息;
将所述待合成音色特征信息和所述待合成文本特征信息输入语音生成器,得到合成语音,根据所述合成语音与所述语音样本的相似度训练所述音色编码器和所述文本编码器。
3.根据权利要求2所述的方法,其特征在于,在对所述音色编码器和所述文本编码器进行端到端的联合训练之前,包括:
利用音色分类器对所述音色编码器输出的所述待合成音色特征信息进行分类,得到所述音色分类器输出的分类结果,根据所述分类结果调整所述音色编码器的模型参数,在所述分类结果表征所述待合成音色特征信息对应的类别与所述语音样本的类别相同时,得到预训练完成的所述音色编码器。
4.根据权利要求2所述的方法,其特征在于,在对所述音色编码器和所述文本编码器进行端到端的联合训练之前,包括:
利用音色鉴别器对所述文本编码器输出的所述待合成文本特征信息进行音色鉴别,得到鉴别输出值,根据所述鉴别输出值调整所述文本编码器的模型参数,在所述鉴别输出值处于预设区间时,得到预训练完成的所述文本编码器。
5.根据权利要求1所述的方法,其特征在于,所述语音合成模型包括序列特征提取模块、语音合成子模块、声码器;
所述序列特征提取模块用于,从所述待合成文本中提取待合成文本序列;
所述语音合成子模块用于,根据所述待合成文本序列与所述音色特征信息合成梅尔频谱;
所述声码器用于,根据所述梅尔频谱生成与所述待合成文本对应的所述音频。
6.根据权利要求5所述的方法,其特征在于,所述语音合成模型是通过如下方式训练得到的:
将音频样本输入所述音色编码器,得到音色特征信息样本;
将所述音频样本、所述音色特征信息样本、与所述音频样本对应的文本样本作为所述语音合成模型的训练样本;
根据所述训练样本训练得到所述语音合成模型。
7.根据权利要求1-6中任一项所述的方法,其特征在于,所述待合成文本为教学例句,所述方法还包括:
通过所述目标用户的终端展示所述教学例句以及与所述教学例句对应的所述音频,以使所述目标用户通过所述音频学习所述教学例句的发音。
8.一种音频生成装置,其特征在于,所述装置包括:
获取模块,用于获取目标用户的音色特征信息;
合成模块,用于将所述音色特征信息与待合成文本输入语音合成模型,得到与所述待合成文本对应的音频;
其中,所述音色特征信息是通过将所述目标用户的语音输入音色编码器得到的,所述音色编码器是通过与文本编码器进行端到端的联合训练后得到的。
9.一种计算机可读介质,其上存储有计算机程序,其特征在于,该程序被处理装置执行时实现权利要求1-7中任一项所述方法的步骤。
10.一种电子设备,其特征在于,包括:
存储装置,其上存储有计算机程序;
处理装置,用于执行所述存储装置中的所述计算机程序,以实现权利要求1-7中任一项所述方法的步骤。
技术总结