变压器-TTSPytorch实现与众所周知的saco2seq模型(如tacotron)相比,该模型的训练速度快约3至4倍,并且合成语音的质量几乎相同。
通过实验确认,每步花费约0.5秒。
我没有使用波网声码器,而是使用tacotron的CBHG模型学习了后网络,并使用griffin-lim算法将频谱图转换为原始波。
要求安装python3安装pytorch==0.4.0安装要求:pipinstall-rrequirements.txt数据我使用了LJSpeech数据集,该数据集由成对的文本脚本和wav文件组成。
完整的数据集(13,100对)可在下载。
我将和用作预处理代码。
预训练模型您可以下载预训练的模型(AR模型为160K,Postnet为100K)在检查点/目录中找到预训练的模型。
留意图约15k步后出现对角线对齐。
以下留意图以16
1