目录
教程
- 语音识别
- 如何使用 Riva ASR API 和开箱即用模型?
- 为语音提示创建语法
- 如何使用词典映射自定义 Riva ASR 词汇表和发音
- 如何在 Riva 上部署使用 NeMo 训练的自定义语言模型 (n-gram)
- 如何在 Riva 上部署使用 NeMo 训练的自定义声学模型 (Citrinet)
- 如何在 Riva 上部署使用 NeMo 训练的自定义声学模型 (Conformer-CTC)
- 如何部署带有 WFST 解码器的 Conformer-CTC 声学模型
- 如何使用 NVIDIA NeMo 微调 Riva ASR 声学模型
- 如何使用适配器自定义 Riva ASR 声学模型 (Conformer-CTC)
- 使用适配器的 ASR
- 什么是适配器?
- 适配器训练的优势和局限性
- 为适配器训练准备声学编码器
- 为适配调整准备模型和数据集
- 创建和训练适配器
- 评估模型
- 将模型导出到 Riva
- 下一步是什么?
- 如何使用 NVIDIA NeMo 微调 Riva ASR 声学模型
- 如何提高特定词语的识别率
- 结论
- 如何合成可用于训练噪声鲁棒 ASR 模型的噪声数据集
- 如何通过在 Riva ASR 管道中微调声学模型 (Conformer-CTC) 来提高噪声语音的准确率
- 如何训练、评估和微调 n-gram 语言模型
- 如何将说话人分离与 Riva ASR 一起使用?
- 要求和设置
- 如何在运行时通过词语提升来提升特定词语?
- Riva 中对基于类的 n-gram 语言模型的支持 (WFST 解码器)
- WFST 解码
- 语音识别 - 新语言适配
- 云部署
- 语音合成
- 翻译
架构
翻译
SDK 和示例应用程序
参考
- 模型
- gRPC & Protocol Buffers
- 故障排除
- 支持矩阵
- Riva 2.18.0
- Riva 2.17.0
- Riva 2.16.0
- Riva 2.15.0
- Riva 2.14.0
- Riva 2.13.0
- Riva 2.12.0
- Riva 2.11.0
- Riva 2.10.0
- Riva 2.9.0
- Riva 2.8.0
- Riva 2.7.0
- Riva 2.6.0
- Riva 2.5.0
- Riva 2.4.0
- Riva 2.3.0
- Riva 2.2.0
- Riva 2.1.0
- Riva 2.0.0
- Riva 1.10.0 Beta
- Riva 1.9.0 Beta
- Riva 1.8.0 Beta
- Riva 1.7.0 Beta
- Riva 1.6.0 Beta
- Riva 1.5.0 Beta
- Riva 1.4.0 Beta
- 升级
- 致谢
- Google API
- GoogleTest
- gflags
- Google Logging Library (glog)
- speexdsp
- libFLAC
- gRPC
- Triton Inference Server
- NVlabs cub
- KenLM
- Kaldi
- grpc_health_probe
- OpenFST
- Yamale
- PyTorch
- requests
- PyCUDA
- RapidJSON
- protobuf
- onnx
- librosa
- omegaconf
- utf8proc
- re2
- thrax
- Sparrowhawk
- SentencePiece
- YouTokenToMe
- MS-SNSD
- Silero VAD
- 最终用户许可协议
- 注意