File size: 2,593 Bytes
ecab193 edef1a2 8e847b5 edef1a2 ecab193 edef1a2 ecab193 edef1a2 8e847b5 |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 |
---
language:
- zh
- en
tags:
- speech-synthesis
- speech-to-speech
- voice-conversion
- pytorch
- audio
- chinese-tts
- multi-speaker
- convolution
- encoder-decoder
- aishell
- vctk
license: apache-2.0
datasets:
- aishell
- thchs30
- primewords
- vctk
library_name: pytorch
---
# Convbased
Convbased是一个高性能的中文语音合成模型,基于卷积神经网络和编码器-解码器架构设计。该模型在多个中文数据集上进行训练,支持多说话人和多方言的语音合成。
- 更快的训练收敛速度
- 更稳定的训练过程
- 更好的语音质量输出
- 支持多种中文方言(普通话、粤语、闽南语、四川话、温州话等)
- 多说话人语音合成能力
## 模型信息
### 训练规模
- **说话人数量**: 476个不同说话人
- **训练时长**: 35天连续训练
- **模型类型**: 编码器 + 解码器架构
- **总训练数据**: 约467小时高质量语音数据
### 模型架构
- **编码器**: 基于卷积的文本编码器
- **解码器**: 声学特征解码器
- **判别器**: 对抗训练判别器
- **损失函数**: 组合损失(Mel频谱损失 + KL散度损失 + 特征匹配损失)
## 训练曲线
模型训练过程中的各项损失函数变化:

*判别器总损失*

*生成器特征匹配损失*

*KL散度损失*

*Mel频谱损失*

*生成器总损失*
## 训练数据集
本模型使用以下高质量中文语音数据集进行训练:
| 数据集名称 | 时长(小时) | 描述 |
|-------------------|-------------|------|
| data_aishell | 178 | 中文普通话语音识别数据集 |
| data_thchs30 | 30 | 清华大学中文语音数据集 |
| primewords_md_2018| 178 | 中文语音合成数据集 |
| VCTK | 44 | 英文多说话人数据集 |
| 四川方言 | 4 | 四川话方言数据 |
| 闽南语 | 3 | 闽南话方言数据 |
| 粤语 | 3 | 粤语方言数据 |
| 温州方言 | 7 | 温州话方言数据 |
| 噪声 | 20 | 噪声环境语音数据 |
*本模型致力于推进中文语音合成技术的发展,该底模已用于微调大部分模型于 [Convbased](https://weights.chat/)* |