支持矩阵#

这些支持矩阵列出了 Riva 支持的硬件和软件要求。

Riva 2.18.0#

服务器硬件#

数据中心#

下表显示了数据中心平台上 Riva 2.18.0 支持的硬件。

硬件兼容性

操作系统

Riva 服务器需要 Linux x86_64 或 Linux aarch64。

GPU 型号

首选部署平台

注意

Riva 支持任何 NVIDIA Volta 或更高版本的 GPU(NVIDIA Turing 和 NVIDIA Ampere GPU 架构),用于开发目的。选择要部署的模型时,必须注意不要超过可用内存。建议使用 16GB 以上的 VRAM。

麦克风、摄像头和耳机

麦克风:

  • 带有 USB 麦克风的 Linux x86(例如,Logitech H390 USB 电脑耳机)

耳机:

  • Logitech H340

  • Logitech H390

  • Microsoft LX3000

GPU 内存

  • ASR 模型

    • 流式模型:约 5600 MB

    • 非流式模型:约 3100 MB

  • NLP 模型

    • 每个 BERT 模型约 500 MB

  • TTS 模型

    • 约 3500 MB

  • NMT 模型

    • 每个双语模型约 4500 Mb

    • 每个 megatron 500m 模型约 5500 Mb

    • 每个 megatron 1b 模型约 8500 Mb

  • 总计

    • 20500 MB

嵌入式#

下表显示了嵌入式平台上 Riva 2.18.0 支持的硬件。

硬件兼容性

操作系统

Riva 服务器需要 L4T aarch64。

GPU 型号

部署平台

Jetson SDK 版本

  • JetPack 6.0

麦克风、摄像头和耳机

麦克风:

  • 带有 USB 麦克风的 Linux AArch64(例如,Logitech H390 USB 电脑耳机)

耳机:

  • Logitech H340

  • Logitech H390

  • Microsoft LX3000

RAM 要求

  • ASR 模型

    • 约 2300 MB

  • NLP 模型

    • 约 1800 MB(带标点符号)

  • NMT 模型

    • 约 5000 MB

  • TTS 模型

    • 约 2100 MB

  • 所有模型组合

    • 约 9500 MB

服务器软件#

数据中心#

下表显示了数据中心平台上 Riva 2.18.0 支持的软件。

软件兼容性

容器

MIG(多实例 GPU)

  • 在支持的 GPU 上,如果根据选定的模型有足够的资源可用,则可以在 MIG 设备上进行部署。

注意

有关更多信息,请参阅 MIG 用户指南

Docker

  • Docker > 19.02,并安装了 nvidia-docker

  • 对于 DGX 以外的用户,需要 Docker >= 19.03。

注意

对于 DGX 用户,请参阅 准备使用 NVIDIA 容器

NeMo

Helm

NVIDIA 驱动程序

注意

对于更早的驱动程序版本,请参阅 深度学习框架支持矩阵中的 NVIDIA 驱动程序部分。

嵌入式#

下表显示了嵌入式平台上 Riva 2.18.0 支持的软件。

软件兼容性

容器

Docker

技能客户端#

Riva Speech AI Skills 客户端不需要本地 GPU,并且硬件要求极低。有关以您的编程语言创建客户端绑定的信息,请参阅 新编程语言的客户端Python 部分介绍了 Riva 快速入门包中包含的预构建 Python 绑定,这些绑定也基于 gRPC。

Riva 2.17.0#

服务器硬件#

数据中心#

下表显示了数据中心平台上 Riva 2.17.0 支持的硬件。

硬件兼容性

操作系统

Riva 服务器需要 Linux x86_64。

GPU 型号

首选部署平台

注意

Riva 支持任何 NVIDIA Volta 或更高版本的 GPU(NVIDIA Turing 和 NVIDIA Ampere GPU 架构),用于开发目的。选择要部署的模型时,必须注意不要超过可用内存。建议使用 16GB 以上的 VRAM。

麦克风、摄像头和耳机

麦克风:

  • 带有 USB 麦克风的 Linux x86(例如,Logitech H390 USB 电脑耳机)

耳机:

  • Logitech H340

  • Logitech H390

  • Microsoft LX3000

GPU 内存

  • ASR 模型

    • 流式模型:约 5600 MB

    • 非流式模型:约 3100 MB

  • NLP 模型

    • 每个 BERT 模型约 500 MB

  • TTS 模型

    • 约 3500 MB

  • NMT 模型

    • 每个双语模型约 4500 Mb

    • 每个 megatron 500m 模型约 5500 Mb

    • 每个 megatron 1b 模型约 8500 Mb

  • 总计

    • 20500 MB

嵌入式#

下表显示了嵌入式平台上 Riva 2.17.0 支持的硬件。

硬件兼容性

操作系统

Riva 服务器需要 Linux AArch64。

GPU 型号

部署平台

Jetson SDK 版本

  • JetPack 6.0

麦克风、摄像头和耳机

麦克风:

  • 带有 USB 麦克风的 Linux AArch64(例如,Logitech H390 USB 电脑耳机)

耳机:

  • Logitech H340

  • Logitech H390

  • Microsoft LX3000

RAM 要求

  • ASR 模型

    • 约 2300 MB

  • NLP 模型

    • 约 1800 MB(带标点符号)

  • NMT 模型

    • 约 5000 MB

  • TTS 模型

    • 约 2100 MB

  • 所有模型组合

    • 约 9500 MB

服务器软件#

数据中心#

下表显示了数据中心平台上 Riva 2.17.0 支持的软件。

软件兼容性

容器

MIG(多实例 GPU)

  • 在支持的 GPU 上,如果根据选定的模型有足够的资源可用,则可以在 MIG 设备上进行部署。

注意

有关更多信息,请参阅 MIG 用户指南

Docker

  • Docker > 19.02,并安装了 nvidia-docker

  • 对于 DGX 以外的用户,需要 Docker >= 19.03。

注意

对于 DGX 用户,请参阅 准备使用 NVIDIA 容器

NeMo

Helm

NVIDIA 驱动程序

注意

对于更早的驱动程序版本,请参阅 深度学习框架支持矩阵中的 NVIDIA 驱动程序部分。

嵌入式#

下表显示了嵌入式平台上 Riva 2.17.0 支持的软件。

软件兼容性

容器

Docker

技能客户端#

Riva Speech AI Skills 客户端不需要本地 GPU,并且硬件要求极低。有关以您的编程语言创建客户端绑定的信息,请参阅 新编程语言的客户端Python 部分介绍了 Riva 快速入门包中包含的预构建 Python 绑定,这些绑定也基于 gRPC。

Riva 2.16.0#

服务器硬件#

数据中心#

下表显示了数据中心平台上 Riva 2.16.0 支持的硬件。

硬件兼容性

操作系统

Riva 服务器需要 Linux x86_64。

GPU 型号

首选部署平台

注意

Riva 支持任何 NVIDIA Volta 或更高版本的 GPU(NVIDIA Turing 和 NVIDIA Ampere GPU 架构),用于开发目的。选择要部署的模型时,必须注意不要超过可用内存。建议使用 16GB 以上的 VRAM。

麦克风、摄像头和耳机

麦克风:

  • 带有 USB 麦克风的 Linux x86(例如,Logitech H390 USB 电脑耳机)

耳机:

  • Logitech H340

  • Logitech H390

  • Microsoft LX3000

GPU 内存

  • ASR 模型

    • 流式模型:约 5600 MB

    • 非流式模型:约 3100 MB

  • NLP 模型

    • 每个 BERT 模型约 500 MB

  • TTS 模型

    • 约 3500 MB

  • NMT 模型

    • 每个双语模型约 4500 Mb

    • 每个 megatron 500m 模型约 5500 Mb

    • 每个 megatron 1b 模型约 8500 Mb

  • 总计

    • 20500 MB

嵌入式#

下表显示了嵌入式平台上 Riva 2.16.0 支持的硬件。

硬件兼容性

操作系统

Riva 服务器需要 Linux AArch64。

GPU 型号

部署平台

Jetson SDK 版本

  • JetPack 6.0

麦克风、摄像头和耳机

麦克风:

  • 带有 USB 麦克风的 Linux AArch64(例如,Logitech H390 USB 电脑耳机)

耳机:

  • Logitech H340

  • Logitech H390

  • Microsoft LX3000

RAM 要求

  • ASR 模型

    • 约 2300 MB

  • NLP 模型

    • 约 1800 MB(带标点符号)

  • NMT 模型

    • 约 5000 MB

  • TTS 模型

    • 约 2100 MB

  • 所有模型组合

    • 约 9500 MB

服务器软件#

数据中心#

下表显示了数据中心平台上 Riva 2.16.0 支持的软件。

软件兼容性

容器

MIG(多实例 GPU)

  • 在 A100 和 A30 平台上,如果为选定的模型提供足够的 vRam,则支持 MIG。

注意

有关 Ampere 和 MIG 的更多信息,请参阅 Ampere 架构深入解析:

Docker

  • Docker > 19.02,并安装了 nvidia-docker

  • 对于 DGX 以外的用户,需要 Docker >= 19.03。

注意

对于 DGX 用户,请参阅 准备使用 NVIDIA 容器

NeMo

Helm

NVIDIA 驱动程序

注意

对于更早的驱动程序版本,请参阅 深度学习框架支持矩阵中的 NVIDIA 驱动程序部分。

嵌入式#

下表显示了嵌入式平台上 Riva 2.16.0 支持的软件。

软件兼容性

容器

Docker

技能客户端#

Riva Speech AI Skills 客户端不需要本地 GPU,并且硬件要求极低。有关以您的编程语言创建客户端绑定的信息,请参阅 新编程语言的客户端Python 部分介绍了 Riva 快速入门包中包含的预构建 Python 绑定,这些绑定也基于 gRPC。

Riva 2.15.0#

服务器硬件#

数据中心#

下表显示了数据中心平台上 Riva 2.15.0 支持的硬件。

硬件兼容性

操作系统

Riva 服务器需要 Linux x86_64。

GPU 型号

首选部署平台

注意

Riva 支持任何 NVIDIA Volta 或更高版本的 GPU(NVIDIA Turing 和 NVIDIA Ampere GPU 架构),用于开发目的。选择要部署的模型时,必须注意不要超过可用内存。建议使用 16GB 以上的 VRAM。

麦克风、摄像头和耳机

麦克风:

  • 带有 USB 麦克风的 Linux x86(例如,Logitech H390 USB 电脑耳机)

耳机:

  • Logitech H340

  • Logitech H390

  • Microsoft LX3000

GPU 内存

  • ASR 模型

    • 流式模型:约 5600 MB

    • 非流式模型:约 3100 MB

  • NLP 模型

    • 每个 BERT 模型约 500 MB

  • TTS 模型

    • 约 3500 MB

  • NMT 模型

    • 每个双语模型约 4500 Mb

    • 每个 megatron 500m 模型约 5500 Mb

    • 每个 megatron 1b 模型约 8500 Mb

  • 总计

    • 20500 MB

嵌入式#

下表显示了嵌入式平台上 Riva 2.15.0 支持的硬件。

硬件兼容性

操作系统

Riva 服务器需要 Linux AArch64。

GPU 型号

部署平台

Jetson SDK 版本

  • JetPack 6.0

麦克风、摄像头和耳机

麦克风:

  • 带有 USB 麦克风的 Linux AArch64(例如,Logitech H390 USB 电脑耳机)

耳机:

  • Logitech H340

  • Logitech H390

  • Microsoft LX3000

RAM 要求

  • ASR 模型

    • 约 2300 MB

  • NLP 模型

    • 约 1800 MB(带标点符号)

  • NMT 模型

    • 约 5000 MB

  • TTS 模型

    • 约 2100 MB

  • 所有模型组合

    • 约 9500 MB

服务器软件#

数据中心#

下表显示了数据中心平台上 Riva 2.15.0 支持的软件。

软件兼容性

容器

MIG(多实例 GPU)

  • 在 A100 和 A30 平台上,如果为选定的模型提供足够的 vRam,则支持 MIG。

注意

有关 Ampere 和 MIG 的更多信息,请参阅 Ampere 架构深入解析:

Docker

  • Docker > 19.02,并安装了 nvidia-docker

  • 对于 DGX 以外的用户,需要 Docker >= 19.03。

注意

对于 DGX 用户,请参阅 准备使用 NVIDIA 容器

NeMo

Helm

NVIDIA 驱动程序

注意

对于更早的驱动程序版本,请参阅 深度学习框架支持矩阵中的 NVIDIA 驱动程序部分。

嵌入式#

下表显示了嵌入式平台上 Riva 2.15.0 支持的软件。

软件兼容性

容器

Docker

技能客户端#

Riva Speech AI Skills 客户端不需要本地 GPU,并且硬件要求极低。有关以您的编程语言创建客户端绑定的信息,请参阅 新编程语言的客户端Python 部分介绍了 Riva 快速入门包中包含的预构建 Python 绑定,这些绑定也基于 gRPC。

Riva 2.14.0#

服务器硬件#

数据中心#

下表显示了数据中心平台上 Riva 2.14.0 支持的硬件。

硬件兼容性

操作系统

Riva 服务器需要 Linux x86_64。

GPU 型号

首选部署平台

注意

Riva 支持任何 NVIDIA Volta 或更高版本的 GPU(NVIDIA Turing 和 NVIDIA Ampere GPU 架构),用于开发目的。选择要部署的模型时,必须注意不要超过可用内存。建议使用 16GB 以上的 VRAM。

麦克风、摄像头和耳机

麦克风:

  • 带有 USB 麦克风的 Linux x86(例如,Logitech H390 USB 电脑耳机)

耳机:

  • Logitech H340

  • Logitech H390

  • Microsoft LX3000

GPU 内存

  • ASR 模型

    • 流式模型:约 5600 MB

    • 非流式模型:约 3100 MB

  • NLP 模型

    • 每个 BERT 模型约 500 MB

  • TTS 模型

    • 约 3500 MB

  • NMT 模型

    • 每个双语模型约 4500 Mb

    • 每个 megatron 500m 模型约 5500 Mb

    • 每个 megatron 1b 模型约 8500 Mb

  • 总计

    • 20500 MB

嵌入式#

下表显示了嵌入式平台上 Riva 2.14.0 支持的硬件。

硬件兼容性

操作系统

Riva 服务器需要 Linux AArch64。

GPU 型号

部署平台

Jetson SDK 版本

  • JetPack 5.1.1

  • JetPack 5.1

麦克风、摄像头和耳机

麦克风:

  • 带有 USB 麦克风的 Linux AArch64(例如,Logitech H390 USB 电脑耳机)

耳机:

  • Logitech H340

  • Logitech H390

  • Microsoft LX3000

RAM 要求

  • ASR 模型

    • 约 2300 MB

  • NLP 模型

    • 约 1800 MB(带标点符号)

  • NMT 模型

    • 约 5000 MB

  • TTS 模型

    • 约 2100 MB

  • 所有模型组合

    • 约 9500 MB

服务器软件#

数据中心#

下表显示了数据中心平台上 Riva 2.14.0 支持的软件。

软件兼容性

容器

MIG(多实例 GPU)

  • 在 A100 和 A30 平台上,如果为选定的模型提供足够的 vRam,则支持 MIG。

注意

有关 Ampere 和 MIG 的更多信息,请参阅 Ampere 架构深入解析:

Docker

  • Docker > 19.02,并安装了 nvidia-docker

  • 对于 DGX 以外的用户,需要 Docker >= 19.03。

注意

对于 DGX 用户,请参阅 准备使用 NVIDIA 容器

NeMo

Helm

NVIDIA 驱动程序

注意

对于更早的驱动程序版本,请参阅 深度学习框架支持矩阵中的 NVIDIA 驱动程序部分。

嵌入式#

下表显示了嵌入式平台上 Riva 2.14.0 支持的软件。

软件兼容性

容器

Docker

技能客户端#

Riva Speech AI Skills 客户端不需要本地 GPU,并且硬件要求极低。有关以您的编程语言创建客户端绑定的信息,请参阅 新编程语言的客户端Python 部分介绍了 Riva 快速入门包中包含的预构建 Python 绑定,这些绑定也基于 gRPC。

Riva 2.13.0#

服务器硬件#

数据中心#

下表显示了数据中心平台上 Riva 2.13.0 支持的硬件。

硬件兼容性

操作系统

Riva 服务器需要 Linux x86_64。

GPU 型号

首选部署平台

注意

Riva 支持任何 NVIDIA Volta 或更高版本的 GPU(NVIDIA Turing 和 NVIDIA Ampere GPU 架构),用于开发目的。选择要部署的模型时,必须注意不要超过可用内存。建议使用 16GB 以上的 VRAM。

麦克风、摄像头和耳机

麦克风:

  • 带有 USB 麦克风的 Linux x86(例如,Logitech H390 USB 电脑耳机)

耳机:

  • Logitech H340

  • Logitech H390

  • Microsoft LX3000

GPU 内存

  • ASR 模型

    • 流式模型:约 5600 MB

    • 非流式模型:约 3100 MB

  • NLP 模型

    • 每个 BERT 模型约 500 MB

  • TTS 模型

    • 约 3500 MB

  • NMT 模型

    • 每个模型约 4500 Mb

  • 总计

    • 20500 MB

嵌入式#

下表显示了嵌入式平台上 Riva 2.13.0 支持的硬件。

硬件兼容性

操作系统

Riva 服务器需要 Linux AArch64。

GPU 型号

部署平台

Jetson SDK 版本

  • JetPack 5.1.1

  • JetPack 5.1

麦克风、摄像头和耳机

麦克风:

  • 带有 USB 麦克风的 Linux AArch64(例如,Logitech H390 USB 电脑耳机)

耳机:

  • Logitech H340

  • Logitech H390

  • Microsoft LX3000

RAM 要求

  • ASR 模型

    • 约 2300 MB

  • NLP 模型

    • 约 1800 MB(带标点符号)

  • NMT 模型

    • 约 5000 MB

  • TTS 模型

    • 约 2100 MB

  • 所有模型组合

    • 约 9500 MB

服务器软件#

数据中心#

下表显示了数据中心平台上 Riva 2.13.0 支持的软件。

软件兼容性

容器

MIG(多实例 GPU)

  • 在 A100 和 A30 平台上,如果为选定的模型提供足够的 vRam,则支持 MIG。

注意

有关 Ampere 和 MIG 的更多信息,请参阅 Ampere 架构深入解析:

Docker

  • Docker > 19.02,并安装了 nvidia-docker

  • 对于 DGX 以外的用户,需要 Docker >= 19.03。

注意

对于 DGX 用户,请参阅 准备使用 NVIDIA 容器

NeMo

Helm

NVIDIA 驱动程序

注意

对于更早的驱动程序版本,请参阅 深度学习框架支持矩阵中的 NVIDIA 驱动程序部分。

嵌入式#

下表显示了嵌入式平台上 Riva 2.13.0 支持的软件。

软件兼容性

容器

Docker

技能客户端#

Riva Speech AI Skills 客户端不需要本地 GPU,并且硬件要求极低。有关以您的编程语言创建客户端绑定的信息,请参阅 新编程语言的客户端Python 部分介绍了 Riva 快速入门包中包含的预构建 Python 绑定,这些绑定也基于 gRPC。

Riva 2.12.0#

服务器硬件#

数据中心#

下表显示了数据中心平台上 Riva 2.12.0 支持的硬件。

硬件兼容性

操作系统

Riva 服务器需要 Linux x86_64。

GPU 型号

首选部署平台

注意

Riva 支持任何 NVIDIA Volta 或更高版本的 GPU(NVIDIA Turing 和 NVIDIA Ampere GPU 架构),用于开发目的。选择要部署的模型时,必须注意不要超过可用内存。建议使用 16GB 以上的 VRAM。

麦克风、摄像头和耳机

麦克风:

  • 带有 USB 麦克风的 Linux x86(例如,Logitech H390 USB 电脑耳机)

耳机:

  • Logitech H340

  • Logitech H390

  • Microsoft LX3000

GPU 内存

  • ASR 模型

    • 流式模型:约 5600 MB

    • 非流式模型:约 3100 MB

  • NLP 模型

    • 每个 BERT 模型约 500 MB

  • TTS 模型

    • 约 3500 MB

  • NMT 模型

    • 每个模型约 4500 Mb

  • 总计

    • 20500 MB

嵌入式#

下表显示了嵌入式平台上 Riva 2.12.0 支持的硬件。

硬件兼容性

操作系统

Riva 服务器需要 Linux AArch64。

GPU 型号

部署平台

Jetson SDK 版本

  • JetPack 5.1.1

  • JetPack 5.1

麦克风、摄像头和耳机

麦克风:

  • 带有 USB 麦克风的 Linux AArch64(例如,Logitech H390 USB 电脑耳机)

耳机:

  • Logitech H340

  • Logitech H390

  • Microsoft LX3000

RAM 要求

  • ASR 模型

    • 约 2300 MB

  • NLP 模型

    • 约 1800 MB(带标点符号)

  • NMT 模型

    • 约 5000 MB

  • TTS 模型

    • 约 2100 MB

  • 所有模型组合

    • 约 9500 MB

服务器软件#

数据中心#

下表显示了数据中心平台上 Riva 2.12.0 支持的软件。

软件兼容性

容器

MIG(多实例 GPU)

  • 在 A100 和 A30 平台上,如果为选定的模型提供足够的 vRam,则支持 MIG。

注意

有关 Ampere 和 MIG 的更多信息,请参阅 Ampere 架构深入解析:

Docker

  • Docker > 19.02,并安装了 nvidia-docker

  • 对于 DGX 以外的用户,需要 Docker >= 19.03。

注意

对于 DGX 用户,请参阅 准备使用 NVIDIA 容器

NeMo

Helm

NVIDIA 驱动程序

注意

对于更早的驱动程序版本,请参阅 深度学习框架支持矩阵中的 NVIDIA 驱动程序部分。

嵌入式#

下表显示了嵌入式平台上 Riva 2.12.0 支持的软件。

软件兼容性

容器

Docker

技能客户端#

Riva Speech AI Skills 客户端不需要本地 GPU,并且硬件要求极低。有关以您的编程语言创建客户端绑定的信息,请参阅 新编程语言的客户端Python 部分介绍了 Riva 快速入门包中包含的预构建 Python 绑定,这些绑定也基于 gRPC。

Riva 2.11.0#

服务器硬件#

数据中心#

下表显示了数据中心平台上 Riva 2.11.0 支持的硬件。

硬件兼容性

操作系统

Riva 服务器需要 Linux x86_64。

GPU 型号

首选部署平台

注意

Riva 支持任何 NVIDIA Volta 或更高版本的 GPU(NVIDIA Turing 和 NVIDIA Ampere GPU 架构),用于开发目的。选择要部署的模型时,必须注意不要超过可用内存。建议使用 16GB 以上的 VRAM。

麦克风、摄像头和耳机

麦克风:

  • 带有 USB 麦克风的 Linux x86(例如,Logitech H390 USB 电脑耳机)

耳机:

  • Logitech H340

  • Logitech H390

  • Microsoft LX3000

GPU 内存

  • ASR 模型

    • 流式模型:约 5600 MB

    • 非流式模型:约 3100 MB

  • NLP 模型

    • 每个 BERT 模型约 500 MB

  • TTS 模型

    • 约 3500 MB

  • NMT 模型

    • 每个模型约 4500 Mb

  • 总计

    • 20500 MB

嵌入式#

下表显示了嵌入式平台上 Riva 2.11.0 支持的硬件。

硬件兼容性

操作系统

Riva 服务器需要 Linux AArch64。

GPU 型号

部署平台

Jetson SDK 版本

  • JetPack 5.1.1

  • JetPack 5.1

麦克风、摄像头和耳机

麦克风:

  • 带有 USB 麦克风的 Linux AArch64(例如,Logitech H390 USB 电脑耳机)

耳机:

  • Logitech H340

  • Logitech H390

  • Microsoft LX3000

RAM 要求

  • ASR 模型

    • 约 2300 MB

  • NLP 模型

    • 约 1800 MB(带标点符号)

  • NMT 模型

    • 约 5000 MB

  • TTS 模型

    • 约 2100 MB

  • 所有模型组合

    • 约 9500 MB

服务器软件#

数据中心#

下表显示了数据中心平台上 Riva 2.11.0 支持的软件。

软件兼容性

容器

MIG(多实例 GPU)

  • 在 A100 和 A30 平台上,如果为选定的模型提供足够的 vRam,则支持 MIG。

注意

有关 Ampere 和 MIG 的更多信息,请参阅 Ampere 架构深入解析:

Docker

  • Docker > 19.02,并安装了 nvidia-docker

  • 对于 DGX 以外的用户,需要 Docker >= 19.03。

注意

对于 DGX 用户,请参阅 准备使用 NVIDIA 容器

NeMo

Helm

NVIDIA 驱动程序

注意

对于更早的驱动程序版本,请参阅 深度学习框架支持矩阵中的 NVIDIA 驱动程序部分。

嵌入式#

下表显示了嵌入式平台上 Riva 2.11.0 支持的软件。

软件兼容性

容器

Docker

技能客户端#

Riva Speech AI Skills 客户端不需要本地 GPU,并且硬件要求极低。有关以您的编程语言创建客户端绑定的信息,请参阅 新编程语言的客户端Python 部分介绍了 Riva 快速入门包中包含的预构建 Python 绑定,这些绑定也基于 gRPC。

Riva 2.10.0#

服务器硬件#

数据中心#

下表显示了数据中心平台上 Riva 2.10.0 支持的硬件。

硬件兼容性

操作系统

Riva 服务器需要 Linux x86_64。

GPU 型号

首选部署平台

注意

Riva 支持任何 NVIDIA Volta 或更高版本的 GPU(NVIDIA Turing 和 NVIDIA Ampere GPU 架构),用于开发目的。选择要部署的模型时,必须注意不要超过可用内存。建议使用 16GB 以上的 VRAM。

麦克风、摄像头和耳机

麦克风:

  • 带有 USB 麦克风的 Linux x86(例如,Logitech H390 USB 电脑耳机)

耳机:

  • Logitech H340

  • Logitech H390

  • Microsoft LX3000

GPU 内存

  • ASR 模型

    • 流式模型:约 5600 MB

    • 非流式模型:约 3100 MB

  • NLP 模型

    • 每个 BERT 模型约 500 MB

  • TTS 模型

    • 约 3500 MB

  • NMT 模型

    • 每个模型约 4500 Mb

  • 总计

    • 20500 MB

嵌入式#

下表显示了嵌入式平台上 Riva 2.10.0 支持的硬件。

硬件兼容性

操作系统

Riva 服务器需要 Linux AArch64。

GPU 型号

部署平台

Jetson SDK 版本

  • JetPack 5.1

麦克风、摄像头和耳机

麦克风:

  • 带有 USB 麦克风的 Linux AArch64(例如,Logitech H390 USB 电脑耳机)

耳机:

  • Logitech H340

  • Logitech H390

  • Microsoft LX3000

RAM 要求

  • ASR 模型

    • 约 2300 MB

  • NLP 模型

    • 约 1800 MB(带标点符号)

  • NMT 模型

    • 约 5000 MB

  • TTS 模型

    • 约 2100 MB

  • 所有模型组合

    • 约 9500 MB

服务器软件#

数据中心#

下表显示了数据中心平台上 Riva 2.10.0 支持的软件。

软件兼容性

容器

MIG(多实例 GPU)

  • 在 A100 和 A30 平台上,如果为选定的模型提供足够的 vRam,则支持 MIG。

注意

有关 Ampere 和 MIG 的更多信息,请参阅 Ampere 架构深入解析:

Docker

  • Docker > 19.02,并安装了 nvidia-docker

  • 对于 DGX 以外的用户,需要 Docker >= 19.03。

注意

对于 DGX 用户,请参阅 准备使用 NVIDIA 容器

NeMo

Helm

NVIDIA 驱动程序

注意

对于更早的驱动程序版本,请参阅 深度学习框架支持矩阵中的 NVIDIA 驱动程序部分。

嵌入式#

下表显示了嵌入式平台上 Riva 2.10.0 支持的软件。

软件兼容性

容器

Docker

技能客户端#

Riva Speech AI Skills 客户端不需要本地 GPU,并且硬件要求极低。有关以您的编程语言创建客户端绑定的信息,请参阅 新编程语言的客户端Python 部分介绍了 Riva 快速入门包中包含的预构建 Python 绑定,这些绑定也基于 gRPC。

Riva 2.9.0#

服务器硬件#

数据中心#

下表显示了数据中心平台上 Riva 2.9.0 支持的硬件。

硬件兼容性

操作系统

Riva 服务器需要 Linux x86_64。

GPU 型号

首选部署平台

注意

Riva 支持任何 NVIDIA Volta 或更高版本的 GPU(NVIDIA Turing 和 NVIDIA Ampere GPU 架构),用于开发目的。选择要部署的模型时,必须注意不要超过可用内存。建议使用 16GB 以上的 VRAM。

麦克风、摄像头和耳机

麦克风:

  • 带有 USB 麦克风的 Linux x86(例如,Logitech H390 USB 电脑耳机)

耳机:

  • Logitech H340

  • Logitech H390

  • Microsoft LX3000

GPU 内存

  • ASR 模型

    • 流式模型:约 5600 MB

    • 非流式模型:约 3100 MB

  • NLP 模型

    • 每个 BERT 模型约 500 MB

  • TTS 模型

    • 约 3500 MB

  • NMT 模型

    • 每个模型约 4500 Mb

  • 总计

    • 20500 MB

嵌入式#

下表显示了嵌入式平台上 Riva 2.9.0 支持的硬件。

硬件兼容性

操作系统

Riva 服务器需要 Linux AArch64。

GPU 型号

部署平台

Jetson SDK 版本

  • JetPack 5.0.2

麦克风、摄像头和耳机

麦克风:

  • 带有 USB 麦克风的 Linux AArch64(例如,Logitech H390 USB 电脑耳机)

耳机:

  • Logitech H340

  • Logitech H390

  • Microsoft LX3000

RAM 要求

  • ASR 模型

    • 约 2300 MB

  • NLP 模型

    • 约 1800 MB(带标点符号)

  • TTS 模型

    • 约 2100 MB

  • 所有模型组合

    • 约 4500 MB

服务器软件#

数据中心#

下表显示了数据中心平台上 Riva 2.9.0 支持的软件。

软件兼容性

容器

MIG(多实例 GPU)

  • 在 A100 和 A30 平台上,如果为选定的模型提供足够的 vRam,则支持 MIG。

注意

有关 Ampere 和 MIG 的更多信息,请参阅 Ampere 架构深入解析:

Docker

  • Docker > 19.02,并安装了 nvidia-docker

  • 对于 DGX 以外的用户,需要 Docker >= 19.03。

注意

对于 DGX 用户,请参阅 准备使用 NVIDIA 容器

NeMo

Helm

NVIDIA 驱动程序

注意

对于更早的驱动程序版本,请参阅 深度学习框架支持矩阵中的 NVIDIA 驱动程序部分。

嵌入式#

下表显示了嵌入式平台上 Riva 2.9.0 支持的软件。

软件兼容性

容器

Docker

技能客户端#

Riva Speech AI Skills 客户端不需要本地 GPU,并且硬件要求极低。有关以您的编程语言创建客户端绑定的信息,请参阅 新编程语言的客户端Python 部分介绍了 Riva 快速入门包中包含的预构建 Python 绑定,这些绑定也基于 gRPC。

Riva 2.8.0#

服务器硬件#

数据中心#

下表显示了数据中心平台上 Riva 2.8.0 支持的硬件。

硬件兼容性

操作系统

Riva 服务器需要 Linux x86_64。

GPU 型号

首选部署平台

注意

Riva 支持任何 NVIDIA Volta 或更高版本的 GPU(NVIDIA Turing 和 NVIDIA Ampere GPU 架构),用于开发目的。选择要部署的模型时,必须注意不要超过可用内存。建议使用 16GB 以上的 VRAM。

麦克风、摄像头和耳机

麦克风:

  • 带有 USB 麦克风的 Linux x86(例如,Logitech H390 USB 电脑耳机)

耳机:

  • Logitech H340

  • Logitech H390

  • Microsoft LX3000

GPU 内存

  • ASR 模型

    • 流式模型:约 5600 MB

    • 非流式模型:约 3100 MB

  • NLP 模型

    • 每个 BERT 模型约 500 MB

  • TTS 模型

    • 约 3500 MB

  • 总计

    • 16000 MB

嵌入式#

下表显示了嵌入式平台上 Riva 2.8.0 支持的硬件。

硬件兼容性

操作系统

Riva 服务器需要 Linux AArch64。

GPU 型号

部署平台

Jetson SDK 版本

  • JetPack 5.0.2

麦克风、摄像头和耳机

麦克风:

  • 带有 USB 麦克风的 Linux AArch64(例如,Logitech H390 USB 电脑耳机)

耳机:

  • Logitech H340

  • Logitech H390

  • Microsoft LX3000

RAM 要求

  • ASR 模型

    • 约 2300 MB

  • NLP 模型

    • 约 1800 MB(带标点符号)

  • TTS 模型

    • 约 2100 MB

  • 所有模型组合

    • 约 4500 MB

服务器软件#

数据中心#

下表显示了数据中心平台上 Riva 2.8.0 支持的软件。

软件兼容性

容器

MIG(多实例 GPU)

  • 在 A100 和 A30 平台上,如果为选定的模型提供足够的 vRam,则支持 MIG。

注意

有关 Ampere 和 MIG 的更多信息,请参阅 Ampere 架构深入解析:

Docker

  • Docker > 19.02,并安装了 nvidia-docker

  • 对于 DGX 以外的用户,需要 Docker >= 19.03。

注意

对于 DGX 用户,请参阅 准备使用 NVIDIA 容器

TAO Toolkit

NeMo

Helm

NVIDIA 驱动程序

注意

对于更早的驱动程序版本,请参阅 深度学习框架支持矩阵中的 NVIDIA 驱动程序部分。

嵌入式#

下表显示了嵌入式平台上 Riva 2.8.0 支持的软件。

软件兼容性

容器

Docker

技能客户端#

Riva Speech AI Skills 客户端不需要本地 GPU,并且硬件要求极低。有关以您的编程语言创建客户端绑定的信息,请参阅 新编程语言的客户端Python 部分介绍了 Riva 快速入门包中包含的预构建 Python 绑定,这些绑定也基于 gRPC。

Riva 2.7.0#

服务器硬件#

数据中心#

下表显示了数据中心平台上 Riva 2.7.0 支持的硬件。

硬件兼容性

操作系统

Riva 服务器需要 Linux x86_64。

GPU 型号

首选部署平台

注意

Riva 支持任何 NVIDIA Volta 或更高版本的 GPU(NVIDIA Turing 和 NVIDIA Ampere GPU 架构),用于开发目的。选择要部署的模型时,必须注意不要超过可用内存。建议使用 16GB 以上的 VRAM。

麦克风、摄像头和耳机

麦克风:

  • 带有 USB 麦克风的 Linux x86(例如,Logitech H390 USB 电脑耳机)

耳机:

  • Logitech H340

  • Logitech H390

  • Microsoft LX3000

GPU 内存

  • ASR 模型

    • 流式模型:约 5600 MB

    • 非流式模型:约 3100 MB

  • NLP 模型

    • 每个 BERT 模型约 500 MB

  • TTS 模型

    • 约 3500 MB

  • 总计

    • 16000 MB

嵌入式#

下表显示了嵌入式平台上 Riva 2.7.0 支持的硬件。

硬件兼容性

操作系统

Riva 服务器需要 Linux AArch64。

GPU 型号

部署平台

Jetson SDK 版本

  • JetPack 5.0.2

麦克风、摄像头和耳机

麦克风:

  • 带有 USB 麦克风的 Linux AArch64(例如,Logitech H390 USB 电脑耳机)

耳机:

  • Logitech H340

  • Logitech H390

  • Microsoft LX3000

RAM 要求

  • ASR 模型

    • 约 2300 MB

  • NLP 模型

    • 约 1800 MB(带标点符号)

  • TTS 模型

    • 约 2100 MB

  • 所有模型组合

    • 约 4500 MB

服务器软件#

数据中心#

下表显示了数据中心平台上 Riva 2.7.0 支持的软件。

软件兼容性

容器

MIG(多实例 GPU)

  • 在 A100 和 A30 平台上,如果为选定的模型提供足够的 vRam,则支持 MIG。

注意

有关 Ampere 和 MIG 的更多信息,请参阅 Ampere 架构深入解析:

Docker

  • Docker > 19.02,并安装了 nvidia-docker

  • 对于 DGX 以外的用户,需要 Docker >= 19.03。

注意

对于 DGX 用户,请参阅 准备使用 NVIDIA 容器

TAO Toolkit

NeMo

Helm

NVIDIA 驱动程序

注意

对于更早的驱动程序版本,请参阅 深度学习框架支持矩阵中的 NVIDIA 驱动程序部分。

嵌入式#

下表显示了嵌入式平台上 Riva 2.7.0 支持的软件。

软件兼容性

容器

Docker

技能客户端#

Riva Speech AI Skills 客户端不需要本地 GPU,并且硬件要求极低。有关以您的编程语言创建客户端绑定的信息,请参阅 新编程语言的客户端Python 部分介绍了 Riva 快速入门包中包含的预构建 Python 绑定,这些绑定也基于 gRPC。

Riva 2.6.0#

服务器硬件#

数据中心#

下表显示了数据中心平台上 Riva 2.6.0 支持的硬件。

硬件兼容性

操作系统

Riva 服务器需要 Linux x86_64。

GPU 型号

首选部署平台

注意

Riva 支持任何 NVIDIA Volta 或更高版本的 GPU(NVIDIA Turing 和 NVIDIA Ampere GPU 架构),用于开发目的。选择要部署的模型时,必须注意不要超过可用内存。建议使用 16GB 以上的 VRAM。

麦克风、摄像头和耳机

麦克风:

  • 带有 USB 麦克风的 Linux x86(例如,Logitech H390 USB 电脑耳机)

耳机:

  • Logitech H340

  • Logitech H390

  • Microsoft LX3000

GPU 内存

  • ASR 模型

    • 流式模型:约 5600 MB

    • 非流式模型:约 3100 MB

  • NLP 模型

    • 每个 BERT 模型约 500 MB

  • TTS 模型

    • 约 3500 MB

  • 总计

    • 16000 MB

嵌入式#

下表显示了嵌入式平台上 Riva 2.6.0 支持的硬件。

硬件兼容性

操作系统

Riva 服务器需要 Linux AArch64。

GPU 型号

部署平台

Jetson SDK 版本

  • JetPack 5.0.2

麦克风、摄像头和耳机

麦克风:

  • 带有 USB 麦克风的 Linux AArch64(例如,Logitech H390 USB 电脑耳机)

耳机:

  • Logitech H340

  • Logitech H390

  • Microsoft LX3000

RAM 要求

  • ASR 模型

    • 约 2300 MB

  • NLP 模型

    • 约 1800 MB(带标点符号)

  • TTS 模型

    • 约 2100 MB

  • 所有模型组合

    • 约 4500 MB

服务器软件#

数据中心#

下表显示了数据中心平台上 Riva 2.6.0 支持的软件。

软件兼容性

容器

MIG(多实例 GPU)

  • 在 A100 和 A30 平台上,如果为选定的模型提供足够的 vRam,则支持 MIG。

注意

有关 Ampere 和 MIG 的更多信息,请参阅 Ampere 架构深入解析:

Docker

  • Docker > 19.02,并安装了 nvidia-docker

  • 对于 DGX 以外的用户,需要 Docker >= 19.03。

注意

对于 DGX 用户,请参阅 准备使用 NVIDIA 容器

TAO Toolkit

NeMo

Helm

NVIDIA 驱动程序

注意

对于更早的驱动程序版本,请参阅 深度学习框架支持矩阵中的 NVIDIA 驱动程序部分。

嵌入式#

下表显示了嵌入式平台上 Riva 2.6.0 支持的软件。

软件兼容性

容器

Docker

技能客户端#

Riva Speech AI Skills 客户端不需要本地 GPU,并且硬件要求极低。有关以您的编程语言创建客户端绑定的信息,请参阅 新编程语言的客户端Python 部分介绍了 Riva 快速入门包中包含的预构建 Python 绑定,这些绑定也基于 gRPC。

Riva 2.5.0#

服务器硬件#

数据中心#

下表显示了数据中心平台上 Riva 2.5.0 支持的硬件。

硬件兼容性

操作系统

Riva 服务器需要 Linux x86_64。

GPU 型号

首选部署平台

注意

Riva 支持任何 NVIDIA Volta 或更高版本的 GPU(NVIDIA Turing 和 NVIDIA Ampere GPU 架构),用于开发目的。选择要部署的模型时,必须注意不要超过可用内存。建议使用 16GB 以上的 VRAM。

麦克风、摄像头和耳机

麦克风:

  • 带有 USB 麦克风的 Linux x86(例如,Logitech H390 USB 电脑耳机)

耳机:

  • Logitech H340

  • Logitech H390

  • Microsoft LX3000

GPU 内存

  • ASR 模型

    • 流式模型:约 5600 MB

    • 非流式模型:约 3100 MB

  • NLP 模型

    • 每个 BERT 模型约 500 MB

  • TTS 模型

    • 约 3500 MB

  • 总计

    • 16000 MB

嵌入式#

下表显示了嵌入式平台上 Riva 2.5.0 支持的硬件。

硬件兼容性

操作系统

Riva 服务器需要 Linux AArch64。

GPU 型号

部署平台

Jetson SDK 版本

  • JetPack 5.0.2

麦克风、摄像头和耳机

麦克风:

  • 带有 USB 麦克风的 Linux AArch64(例如,Logitech H390 USB 电脑耳机)

耳机:

  • Logitech H340

  • Logitech H390

  • Microsoft LX3000

RAM 要求

  • ASR 模型

    • 约 2300 MB

  • NLP 模型

    • 约 1800 MB(带标点符号)

  • TTS 模型

    • 约 2100 MB

  • 所有模型组合

    • 约 4500 MB

服务器软件#

数据中心#

下表显示了数据中心平台上 Riva 2.5.0 支持的软件。

软件兼容性

容器

MIG(多实例 GPU)

  • 在 A100 和 A30 平台上,如果为选定的模型提供足够的 vRam,则支持 MIG。

注意

有关 Ampere 和 MIG 的更多信息,请参阅 Ampere 架构深入解析:

Docker

  • Docker > 19.02,并安装了 nvidia-docker

  • 对于 DGX 以外的用户,需要 Docker >= 19.03。

注意

对于 DGX 用户,请参阅 准备使用 NVIDIA 容器

TAO Toolkit

NeMo

Helm

NVIDIA 驱动程序

注意

对于更早的驱动程序版本,请参阅 深度学习框架支持矩阵中的 NVIDIA 驱动程序部分。

嵌入式#

下表显示了嵌入式平台上 Riva 2.5.0 支持的软件。

软件兼容性

容器

Docker

技能客户端#

Riva Speech AI Skills 客户端不需要本地 GPU,并且硬件要求极低。有关以您的编程语言创建客户端绑定的信息,请参阅 新编程语言的客户端Python 部分介绍了 Riva 快速入门包中包含的预构建 Python 绑定,这些绑定也基于 gRPC。

Riva 2.4.0#

服务器硬件#

数据中心#

下表显示了数据中心平台上 Riva 2.4.0 支持的硬件。

硬件兼容性

操作系统

Riva 服务器需要 Linux x86_64。

GPU 型号

首选部署平台

注意

Riva 支持任何 NVIDIA Volta 或更高版本的 GPU(NVIDIA Turing 和 NVIDIA Ampere GPU 架构),用于开发目的。选择要部署的模型时,必须注意不要超过可用内存。建议使用 16GB 以上的 VRAM。

麦克风、摄像头和耳机

麦克风:

  • 带有 USB 麦克风的 Linux x86(例如,Logitech H390 USB 电脑耳机)

耳机:

  • Logitech H340

  • Logitech H390

  • Microsoft LX3000

GPU 内存

  • ASR 模型

    • 流式模型:约 5600 MB

    • 非流式模型:约 3100 MB

  • NLP 模型

    • 每个 BERT 模型约 500 MB

  • TTS 模型

    • 约 3500 MB

  • 总计

    • 16000 MB

嵌入式#

下表显示了嵌入式平台上 Riva 2.4.0 支持的硬件。

硬件兼容性

操作系统

Riva 服务器需要 Linux AArch64。

GPU 型号

部署平台

Jetson SDK 版本

  • JetPack 5.0 Developer Preview

  • JetPack 5.0.1 Developer Preview

麦克风、摄像头和耳机

麦克风:

  • 带有 USB 麦克风的 Linux AArch64(例如,Logitech H390 USB 电脑耳机)

耳机:

  • Logitech H340

  • Logitech H390

  • Microsoft LX3000

RAM 要求

  • ASR 模型

    • 约 2300 MB

  • NLP 模型

    • 约 1800 MB(带标点符号)

  • TTS 模型

    • 约 2100 MB

  • 所有模型组合

    • 约 4500 MB

服务器软件#

数据中心#

下表显示了数据中心平台上 Riva 2.4.0 支持的软件。

软件兼容性

容器

MIG(多实例 GPU)

  • 在 A100 和 A30 平台上,如果为选定的模型提供足够的 vRam,则支持 MIG。

注意

有关 Ampere 和 MIG 的更多信息,请参阅 Ampere 架构深入解析:

Docker

  • Docker > 19.02,并安装了 nvidia-docker

  • 对于 DGX 以外的用户,需要 Docker >= 19.03。

注意

对于 DGX 用户,请参阅 准备使用 NVIDIA 容器

TAO Toolkit

NeMo

Helm

NVIDIA 驱动程序

注意

对于更早的驱动程序版本,请参阅 深度学习框架支持矩阵中的 NVIDIA 驱动程序部分。

嵌入式#

下表显示了嵌入式平台上 Riva 2.4.0 支持的软件。

软件兼容性

容器

Docker

技能客户端#

Riva Speech AI Skills 客户端不需要本地 GPU,并且硬件要求极低。有关以您的编程语言创建客户端绑定的信息,请参阅 新编程语言的客户端Python 部分介绍了 Riva 快速入门包中包含的预构建 Python 绑定,这些绑定也基于 gRPC。

Riva 2.3.0#

服务器硬件#

数据中心#

下表显示了数据中心平台上 Riva 2.3.0 支持的硬件。

硬件兼容性

操作系统

Riva 服务器需要 Linux x86_64。

GPU 型号

首选部署平台

注意

Riva 支持任何 NVIDIA Volta 或更高版本的 GPU(NVIDIA Turing 和 NVIDIA Ampere GPU 架构),用于开发目的。选择要部署的模型时,必须注意不要超过可用内存。建议使用 16GB 以上的 VRAM。

麦克风、摄像头和耳机

麦克风:

  • 带有 USB 麦克风的 Linux x86(例如,Logitech H390 USB 电脑耳机)

耳机:

  • Logitech H340

  • Logitech H390

  • Microsoft LX3000

GPU 内存

  • ASR 模型

    • 流式模型:约 5600 MB

    • 非流式模型:约 3100 MB

  • NLP 模型

    • 每个 BERT 模型约 500 MB

  • TTS 模型

    • 约 3500 MB

  • 总计

    • 16000 MB

嵌入式#

下表显示了嵌入式平台上 Riva 2.3.0 支持的硬件。

硬件兼容性

操作系统

Riva 服务器需要 Linux AArch64。

GPU 型号

部署平台

Jetson SDK 版本

  • JetPack 5.0 Developer Preview

  • JetPack 5.0.1 Developer Preview

麦克风、摄像头和耳机

麦克风:

  • 带有 USB 麦克风的 Linux AArch64(例如,Logitech H390 USB 电脑耳机)

耳机:

  • Logitech H340

  • Logitech H390

  • Microsoft LX3000

RAM 要求

  • ASR 模型

    • 约 2300 MB

  • NLP 模型

    • 约 1800 MB(带标点符号)

  • TTS 模型

    • 约 2100 MB

  • 所有模型组合

    • 约 4500 MB

服务器软件#

数据中心#

下表显示了数据中心平台上 Riva 2.3.0 支持的软件。

软件兼容性

容器

MIG(多实例 GPU)

  • 在 A100 和 A30 平台上,如果为选定的模型提供足够的 vRam,则支持 MIG。

注意

有关 Ampere 和 MIG 的更多信息,请参阅 Ampere 架构深入解析:

Docker

  • Docker > 19.02,并安装了 nvidia-docker

  • 对于 DGX 以外的用户,需要 Docker >= 19.03。

注意

对于 DGX 用户,请参阅 准备使用 NVIDIA 容器

TAO Toolkit

NeMo

Helm

NVIDIA 驱动程序

注意

对于更早的驱动程序版本,请参阅 深度学习框架支持矩阵中的 NVIDIA 驱动程序部分。

嵌入式#

下表显示了嵌入式平台上 Riva 2.3.0 支持的软件。

软件兼容性

容器

Docker

技能客户端#

Riva Speech AI Skills 客户端不需要本地 GPU,并且硬件要求极低。有关以您的编程语言创建客户端绑定的信息,请参阅 新编程语言的客户端Python 部分介绍了 Riva 快速入门包中包含的预构建 Python 绑定,这些绑定也基于 gRPC。

Riva 2.2.0#

服务器硬件#

数据中心#

下表显示了数据中心平台上 Riva 2.2.0 支持的硬件。

硬件兼容性

操作系统

Riva 服务器需要 Linux x86_64。

GPU 型号

首选部署平台

注意

Riva 支持任何 NVIDIA Volta 或更高版本的 GPU(NVIDIA Turing 和 NVIDIA Ampere GPU 架构),用于开发目的。选择要部署的模型时,必须注意不要超过可用内存。建议使用 16GB 以上的 VRAM。

麦克风、摄像头和耳机

麦克风:

  • 带有 USB 麦克风的 Linux x86(例如,Logitech H390 USB 电脑耳机)

耳机:

  • Logitech H340

  • Logitech H390

  • Microsoft LX3000

GPU 内存

  • ASR 模型

    • 流式模型:约 5600 MB

    • 非流式模型:约 3100 MB

  • NLP 模型

    • 每个 BERT 模型约 500 MB

  • TTS 模型

    • 约 3500 MB

  • 总计

    • 16000 MB

嵌入式#

下表显示了嵌入式平台上 Riva 2.2.0 支持的硬件。

硬件兼容性

操作系统

Riva 服务器需要 Linux AArch64。

GPU 型号

部署平台

Jetson SDK 版本

  • JetPack 5.0 Developer Preview

  • JetPack 5.0.1 Developer Preview

麦克风、摄像头和耳机

麦克风:

  • 带有 USB 麦克风的 Linux AArch64(例如,Logitech H390 USB 电脑耳机)

耳机:

  • Logitech H340

  • Logitech H390

  • Microsoft LX3000

RAM 要求

  • ASR 模型

    • 约 2300 MB

  • NLP 模型

    • 约 1800 MB(带标点符号)

  • TTS 模型

    • 约 2100 MB

  • 所有模型组合

    • 约 4500 MB

服务器软件#

数据中心#

下表显示了数据中心平台上 Riva 2.2.0 支持的软件。

软件兼容性

容器

MIG(多实例 GPU)

  • 在 A100 和 A30 平台上,如果为选定的模型提供足够的 vRam,则支持 MIG。

注意

有关 Ampere 和 MIG 的更多信息,请参阅 Ampere 架构深入解析:

Docker

  • Docker > 19.02,并安装了 nvidia-docker

  • 对于 DGX 以外的用户,需要 Docker >= 19.03。

注意

对于 DGX 用户,请参阅 准备使用 NVIDIA 容器

TAO Toolkit

NeMo

Helm

NVIDIA 驱动程序

注意

对于更早的驱动程序版本,请参阅 深度学习框架支持矩阵中的 NVIDIA 驱动程序部分。

嵌入式#

下表显示了嵌入式平台上 Riva 2.2.0 支持的软件。

软件兼容性

容器

Docker

技能客户端#

Riva Speech AI Skills 客户端不需要本地 GPU,并且硬件要求极低。有关以您的编程语言创建客户端绑定的信息,请参阅 新编程语言的客户端Python 部分介绍了 Riva 快速入门包中包含的预构建 Python 绑定,这些绑定也基于 gRPC。

Riva 2.1.0#

服务器硬件#

数据中心#

下表显示了数据中心平台上 Riva 2.1.0 支持的硬件。

硬件兼容性

操作系统

Riva 服务器需要 Linux x86_64。

GPU 型号

首选部署平台

注意

Riva 支持任何 NVIDIA Volta 或更高版本的 GPU(NVIDIA Turing 和 NVIDIA Ampere GPU 架构),用于开发目的。选择要部署的模型时,必须注意不要超过可用内存。建议使用 16GB 以上的 VRAM。

麦克风、摄像头和耳机

麦克风:

  • 带有 USB 麦克风的 Linux x86(例如,Logitech H390 USB 电脑耳机)

耳机:

  • Logitech H340

  • Logitech H390

  • Microsoft LX3000

GPU 内存

  • ASR 模型

    • 流式模型:约 5600 MB

    • 非流式模型:约 3100 MB

  • NLP 模型

    • 每个 BERT 模型约 500 MB

  • TTS 模型

    • 约 3500 MB

  • 总计

    • 16000 MB

嵌入式#

下表显示了嵌入式平台上 Riva 2.1.0 支持的硬件。

硬件兼容性

操作系统

Riva 服务器需要 Linux AArch64。

GPU 型号

部署平台

Jetson SDK 版本

  • JetPack 4.6.1

麦克风、摄像头和耳机

麦克风:

  • 带有 USB 麦克风的 Linux AArch64(例如,Logitech H390 USB 电脑耳机)

耳机:

  • Logitech H340

  • Logitech H390

  • Microsoft LX3000

RAM 要求

  • ASR 模型

    • 约 2300 MB

  • NLP 模型

    • 约 1800 MB(带标点符号)

  • TTS 模型

    • 约 2100 MB

  • 所有模型组合

    • 约 4500 MB

服务器软件#

数据中心#

下表显示了数据中心平台上 Riva 2.1.0 支持的软件。

软件兼容性

容器

MIG(多实例 GPU)

  • 在 A100 和 A30 平台上,如果为选定的模型提供足够的 vRam,则支持 MIG。

注意

有关 Ampere 和 MIG 的更多信息,请参阅 Ampere 架构深入解析:

Docker

  • Docker > 19.02,并安装了 nvidia-docker

  • 对于 DGX 以外的用户,需要 Docker >= 19.03。

注意

对于 DGX 用户,请参阅 准备使用 NVIDIA 容器

TAO Toolkit

NeMo

Helm

NVIDIA 驱动程序

注意

对于更早的驱动程序版本,请参阅 深度学习框架支持矩阵中的 NVIDIA 驱动程序部分。

嵌入式#

下表显示了嵌入式平台上 Riva 2.1.0 支持的软件。

软件兼容性

容器

Docker

技能客户端#

Riva Speech AI Skills 客户端不需要本地 GPU,并且硬件要求极低。有关以您的编程语言创建客户端绑定的信息,请参阅 新编程语言的客户端Python 部分介绍了 Riva 快速入门包中包含的预构建 Python 绑定,这些绑定也基于 gRPC。

Riva 2.0.0#

服务器硬件#

数据中心#

下表显示了数据中心平台上 Riva 2.0.0 支持的硬件。

硬件兼容性

操作系统

Riva 服务器需要 Linux x86_64。

GPU 型号

首选部署平台

注意

Riva 支持任何 NVIDIA Volta 或更高版本的 GPU(NVIDIA Turing 和 NVIDIA Ampere GPU 架构),用于开发目的。选择要部署的模型时,必须注意不要超过可用内存。建议使用 16GB 以上的 VRAM。

麦克风、摄像头和耳机

麦克风:

  • 带有 USB 麦克风的 Linux x86(例如,Logitech H390 USB 电脑耳机)

耳机:

  • Logitech H340

  • Logitech H390

  • Microsoft LX3000

GPU 内存

  • ASR 模型

    • 流式模型:约 5600 MB

    • 非流式模型:约 3100 MB

  • NLP 模型

    • 每个 BERT 模型约 500 MB

  • TTS 模型

    • 约 3500 MB

  • 总计

    • 16000 MB

嵌入式#

下表显示了嵌入式平台上 Riva 2.0.0 支持的硬件。

硬件兼容性

操作系统

Riva 服务器需要 Linux AArch64。

GPU 型号

部署平台

Jetson SDK 版本

  • JetPack 4.6

麦克风、摄像头和耳机

麦克风:

  • 带有 USB 麦克风的 Linux AArch64(例如,Logitech H390 USB 电脑耳机)

耳机:

  • Logitech H340

  • Logitech H390

  • Microsoft LX3000

RAM 要求

  • ASR 模型

    • 约 2300 MB

  • NLP 模型

    • 约 1800 MB(带标点符号)

  • TTS 模型

    • 约 2100 MB

  • 所有模型组合

    • 约 4500 MB

服务器软件#

数据中心#

下表显示了数据中心平台上 Riva 2.0.0 支持的软件。

软件兼容性

容器

MIG(多实例 GPU)

  • 在 A100 和 A30 平台上,如果为选定的模型提供足够的 vRam,则支持 MIG。

注意

有关 Ampere 和 MIG 的更多信息,请参阅 Ampere 架构深入解析:

Docker

  • Docker > 19.02,并安装了 nvidia-docker

  • 对于 DGX 以外的用户,需要 Docker >= 19.03。

注意

对于 DGX 用户,请参阅 准备使用 NVIDIA 容器

TAO Toolkit

NeMo

Helm

NVIDIA 驱动程序

注意

对于更早的驱动程序版本,请参阅 深度学习框架支持矩阵中的 NVIDIA 驱动程序部分。

嵌入式#

下表显示了嵌入式平台上 Riva 2.0.0 支持的软件。

软件兼容性

容器

Docker

技能客户端#

Riva Speech AI Skills 客户端不需要本地 GPU,并且硬件要求极低。有关以您的编程语言创建客户端绑定的信息,请参阅 新编程语言的客户端Python 部分介绍了 Riva 快速入门包中包含的预构建 Python 绑定,这些绑定也基于 gRPC。

Riva 1.10.0 Beta#

服务器硬件#

下表显示了 Riva 1.10.0 Beta 支持的硬件。

硬件兼容性

操作系统

Riva 服务器需要 Linux x86_64。

GPU 型号

首选部署平台

注意

Riva 支持任何 NVIDIA Volta 或更高版本的 GPU(NVIDIA Turing 和 NVIDIA Ampere GPU 架构),用于开发目的。选择要部署的模型时,必须注意不要超过可用内存。建议使用 16GB 以上的 VRAM。

麦克风、摄像头和耳机

麦克风:

  • 带有 USB 麦克风的 Linux x86(例如,Logitech H390 USB 电脑耳机)

耳机:

  • Logitech H340

  • Logitech H390

  • Microsoft LX3000

GPU 内存

  • ASR 模型

    • 流式模型:约 5600 MB

    • 非流式模型:约 3100 MB

  • NLP 模型

    • 每个 BERT 模型约 500 MB

  • TTS 模型

    • 约 3500 MB

  • 总计

    • 16000 MB

服务器软件#

下表显示了 Riva 1.10.0 Beta 支持的软件。

软件兼容性

容器

MIG(多实例 GPU)

  • 在 A100 和 A30 平台上,如果为选定的模型提供足够的 vRam,则支持 MIG。

注意

有关 Ampere 和 MIG 的更多信息,请参阅 Ampere 架构深入解析:

Docker

  • Docker > 19.02,并安装了 nvidia-docker

  • 对于 DGX 以外的用户,需要 Docker >= 19.03。

注意

对于 DGX 用户,请参阅 准备使用 NVIDIA 容器

TAO Toolkit

NeMo

Helm

NVIDIA 驱动程序

注意

对于更早的驱动程序版本,请参阅 深度学习框架支持矩阵中的 NVIDIA 驱动程序部分。

技能客户端#

Riva Speech AI Skills 客户端不需要本地 GPU,并且硬件要求极低。有关以您的编程语言创建客户端绑定的信息,请参阅 新编程语言的客户端Python 部分介绍了 Riva 快速入门包中包含的预构建 Python 绑定,这些绑定也基于 gRPC。

Riva 1.9.0 Beta#

服务器硬件#

下表显示了 Riva 1.9.0 Beta 支持的硬件。

硬件兼容性

操作系统

Riva 服务器需要 Linux x86_64。

GPU 型号

首选部署平台

注意

Riva 支持任何 NVIDIA Volta 或更高版本的 GPU(NVIDIA Turing 和 NVIDIA Ampere GPU 架构),用于开发目的。选择要部署的模型时,必须注意不要超过可用内存。建议使用 16GB 以上的 VRAM。

麦克风、摄像头和耳机

麦克风:

  • 带有 USB 麦克风的 Linux x86(例如,Logitech H390 USB 电脑耳机)

耳机:

  • Logitech H340

  • Logitech H390

  • Microsoft LX3000

GPU 内存

  • ASR 模型

    • 流式模型:约 5600 MB

    • 非流式模型:约 3100 MB

  • NLP 模型

    • 每个 BERT 模型约 500 MB

  • TTS 模型

    • 约 3500 MB

  • 总计

    • 16000 MB

服务器软件#

下表显示了 Riva 1.9.0 Beta 支持的软件。

软件兼容性

容器

MIG(多实例 GPU)

  • 在 A100 和 A30 平台上,如果为选定的模型提供足够的 vRam,则支持 MIG。

注意

有关 Ampere 和 MIG 的更多信息,请参阅 Ampere 架构深入解析:

Docker

  • Docker > 19.02,并安装了 nvidia-docker

  • 对于 DGX 以外的用户,需要 Docker >= 19.03。

注意

对于 DGX 用户,请参阅 准备使用 NVIDIA 容器

TAO Toolkit

NeMo

Helm

NVIDIA 驱动程序

注意

对于更早的驱动程序版本,请参阅 深度学习框架支持矩阵中的 NVIDIA 驱动程序部分。

技能客户端#

Riva Speech AI Skills 客户端不需要本地 GPU,并且硬件要求极低。有关以您的编程语言创建客户端绑定的信息,请参阅 新编程语言的客户端Python 部分介绍了 Riva 快速入门包中包含的预构建 Python 绑定,这些绑定也基于 gRPC。

Riva 1.8.0 Beta#

服务器硬件#

下表显示了 Riva 1.8.0 Beta 支持的硬件。

硬件兼容性

操作系统

Riva 服务器需要 Linux x86_64。

GPU 型号

首选部署平台

注意

Riva 在任何 Volta 或更高版本的 NVIDIA GPU(Volta、Turing 和 NVIDIA Ampere GPU 架构)上均受支持以用于开发目的。 选择要部署的模型时,必须注意不要超过可用内存。 建议使用 16+ GB VRAM。

麦克风、摄像头和耳机

麦克风:

  • 带有 USB 麦克风的 Linux x86(例如,Logitech H390 USB 电脑耳机)

耳机:

  • Logitech H340

  • Logitech H390

  • Microsoft LX3000

GPU 内存

  • ASR 模型

    • 流式模型:约 5600 MB

    • 非流式模型:约 3100 MB

  • NLP 模型

    • 每个 BERT 模型约 500 MB

  • TTS 模型

    • 约 3500 MB

  • 总计

    • 16000 MB

服务器软件#

下表显示了 Riva 1.8.0 Beta 支持的软件。

软件兼容性

容器

MIG(多实例 GPU)

  • 在 A100 和 A30 平台上,如果为选定的模型提供足够的 vRam,则支持 MIG。

注意

有关 Ampere 和 MIG 的更多信息,请参阅 Ampere 架构深入解析:

Docker

  • Docker > 19.02,并安装了 nvidia-docker

  • 对于 DGX 以外的用户,需要 Docker >= 19.03。

注意

对于 DGX 用户,请参阅 准备使用 NVIDIA 容器

NVIDIA TAO 工具包

NVIDIA NeMo

Helm

NVIDIA 驱动程序

注意

对于更早的驱动程序版本,请参阅 深度学习框架支持矩阵中的 NVIDIA 驱动程序部分。

技能客户端#

Riva Speech AI Skills 客户端不需要本地 GPU,并且硬件要求极低。有关以您的编程语言创建客户端绑定的信息,请参阅 新编程语言的客户端Python 部分介绍了 Riva 快速入门包中包含的预构建 Python 绑定,这些绑定也基于 gRPC。

Riva 1.7.0 Beta#

服务器硬件#

下表显示了 Riva 1.7.0 Beta 支持的硬件。

硬件兼容性

操作系统

Riva 服务器需要 Linux x86_64。

GPU 型号

首选部署平台

注意

Riva 在任何 Volta 或更高版本的 NVIDIA GPU(Volta、Turing 和 NVIDIA Ampere GPU 架构)上均受支持以用于开发目的。 选择要部署的模型时,必须注意不要超过可用内存。 建议使用 16+ GB VRAM。

麦克风、摄像头和耳机

麦克风:

  • 带有 USB 麦克风的 Linux x86(例如,Logitech H390 USB 电脑耳机)

耳机:

  • Logitech H340

  • Logitech H390

  • Microsoft LX3000

GPU 内存

  • ASR 模型

    • 流式模型:约 5600 MB

    • 非流式模型:约 3100 MB

  • NLP 模型

    • 每个 BERT 模型约 500MB

  • TTS 模型

    • 约 3500 MB

  • 总计

    • 16000 MB

服务器软件#

下表显示了 Riva 1.7.0 Beta 支持的软件。

软件兼容性

容器

MiG (多实例 GPU)

  • 在 A100 和 A30 平台上,如果为选定的模型提供足够的 vRam,则支持 MiG。

注意

有关 Ampere 和 MiG 的更多信息,请参阅 Ampere 架构深度解析:

Docker

  • Docker > 19.02,并安装了 nvidia-docker

  • 对于 DGX 以外的用户,需要 Docker >= 19.03。

注意

对于 DGX 用户,请参阅 准备使用 NVIDIA 容器

TAO

Nemo

Helm

NVIDIA 驱动程序

注意

对于更早的驱动程序版本,请参阅 深度学习框架支持矩阵中的 NVIDIA 驱动程序部分。

技能客户端#

Riva Speech AI Skills 客户端不需要本地 GPU,并且硬件要求极低。有关以您的编程语言创建客户端绑定的信息,请参阅 新编程语言的客户端Python 部分介绍了 Riva 快速入门包中包含的预构建 Python 绑定,这些绑定也基于 gRPC。

Riva 1.6.0 Beta#

服务器硬件#

下表显示了 Riva 1.6.0 Beta 支持的硬件。

硬件兼容性

操作系统

Riva 服务器需要 Linux x86_64。

GPU 型号

首选部署平台

注意

Riva 在任何 Volta 或更高版本的 NVIDIA GPU(Volta、Turing 和 NVIDIA Ampere GPU 架构)上均受支持以用于开发目的。 选择要部署的模型时,必须注意不要超过可用内存。 建议使用 16+ GB VRAM。

麦克风、摄像头和耳机

麦克风:

  • 带有 USB 麦克风的 Linux x86(例如,Logitech H390 USB 电脑耳机)

耳机:

  • Logitech H340

  • Logitech H390

  • Microsoft LX3000

GPU 内存

  • ASR 模型

    • 流式模型:约 5600 MB

    • 非流式模型:约 3100 MB

  • NLP 模型

    • 每个 BERT 模型约 500MB

  • TTS 模型

    • 约 3500 MB

  • 总计

    • 16000 MB

服务器软件#

下表显示了 Riva 1.6.0 Beta 支持的软件。

软件兼容性

容器

Docker

  • Docker > 19.02,并安装了 nvidia-docker

  • 对于 DGX 以外的用户,需要 Docker >= 19.03。

注意

对于 DGX 用户,请参阅 准备使用 NVIDIA 容器

Helm

NVIDIA 驱动程序

注意

对于更早的驱动程序版本,请参阅 深度学习框架支持矩阵中的 NVIDIA 驱动程序部分。

技能客户端#

Riva Speech AI Skills 客户端不需要本地 GPU,并且硬件要求极低。有关以您的编程语言创建客户端绑定的信息,请参阅 新编程语言的客户端Python 部分介绍了 Riva 快速入门包中包含的预构建 Python 绑定,这些绑定也基于 gRPC。

Riva 1.5.0 Beta#

服务器硬件#

下表显示了 Riva 1.5.0 Beta 支持的硬件。

硬件兼容性

操作系统

Riva 服务器需要 Linux x86_64。

GPU 型号

首选部署平台

注意

Riva 在任何 Volta 或更高版本的 NVIDIA GPU(Volta、Turing 和 NVIDIA Ampere GPU 架构)上均受支持以用于开发目的。 选择要部署的模型时,必须注意不要超过可用内存。 建议使用 16+ GB VRAM。

麦克风、摄像头和耳机

麦克风:

  • 带有 USB 麦克风的 Linux x86(例如,Logitech H390 USB 电脑耳机)

耳机:

  • Logitech H340

  • Logitech H390

  • Microsoft LX3000

GPU 内存

  • ASR 模型

    • 流式模型:约 5600 MB

    • 非流式模型:约 3100 MB

  • NLP 模型

    • 每个 BERT 模型约 500MB

  • TTS 模型

    • 约 3500 MB

  • 总计

    • 16000 MB

服务器软件#

下表显示了 Riva 1.5.0 Beta 支持的软件。

软件兼容性

容器

Docker

  • Docker > 19.02,并安装了 nvidia-docker

  • 对于 DGX 以外的用户,需要 Docker >= 19.03。

注意

对于 DGX 用户,请参阅 准备使用 NVIDIA 容器

Helm

NVIDIA 驱动程序

注意

对于更早的驱动程序版本,请参阅 深度学习框架支持矩阵中的 NVIDIA 驱动程序部分。

技能客户端#

Riva Speech AI Skills 客户端不需要本地 GPU,并且硬件要求极低。有关以您的编程语言创建客户端绑定的信息,请参阅 新编程语言的客户端Python 部分介绍了 Riva 快速入门包中包含的预构建 Python 绑定,这些绑定也基于 gRPC。

Riva 1.4.0 Beta#

服务器硬件#

下表显示了 Riva 1.4.0 Beta 支持的硬件。

硬件兼容性

操作系统

Riva 服务器需要 Linux x86_64。

GPU 型号

首选部署平台

注意

Riva 在任何 Volta 或更高版本的 NVIDIA GPU(Volta、Turing 和 NVIDIA Ampere GPU 架构)上均受支持以用于开发目的。 选择要部署的模型时,必须注意不要超过可用内存。 建议使用 16+ GB VRAM。

麦克风、摄像头和耳机

麦克风:

  • 带有 USB 麦克风的 Linux x86(例如,Logitech H390 USB 电脑耳机)

耳机:

  • Logitech H340

  • Logitech H390

  • Microsoft LX3000

GPU 内存

  • ASR 模型

    • 流式模型:约 5600 MB

    • 非流式模型:约 3100 MB

  • NLP 模型

    • 每个 BERT 模型约 500MB

  • TTS 模型

    • 约 3500 MB

  • 总计

    • 16000 MB

服务器软件#

下表显示了 Riva 1.4.0 Beta 支持的软件。

软件兼容性

容器

Docker

  • Docker > 19.02,并安装了 nvidia-docker

  • 对于 DGX 以外的用户,需要 Docker >= 19.03。

注意

对于 DGX 用户,请参阅 准备使用 NVIDIA 容器

Helm

NVIDIA 驱动程序

注意

对于更早的驱动程序版本,请参阅 深度学习框架支持矩阵中的 NVIDIA 驱动程序部分。

技能客户端#

Riva Speech AI Skills 客户端不需要本地 GPU,并且硬件要求极低。有关以您的编程语言创建客户端绑定的信息,请参阅 新编程语言的客户端Python 部分介绍了 Riva 快速入门包中包含的预构建 Python 绑定,这些绑定也基于 gRPC。

Jarvis 1.3.0 Beta

硬件#

下表显示了 Jarvis 1.3.0 Beta 支持的硬件。

硬件兼容性

操作系统

Jarvis 服务器需要 Linux x86_64。

GPU 型号

首选部署平台

注意

Jarvis 在任何 Volta 或更高版本的 NVIDIA GPU(Volta、Turing 和 NVIDIA Ampere GPU 架构)上均受支持以用于开发目的。 选择要部署的模型时,必须注意不要超过可用内存。 建议使用 16+ GB VRAM。

麦克风、摄像头和耳机

麦克风:

  • 带有 USB 麦克风的 Linux x86(例如,Logitech H390 USB 电脑耳机)

耳机:

  • Logitech H340

  • Logitech H390

  • Microsoft LX3000

GPU 内存

  • ASR 模型

    • 流式模型:约 5600 MB

    • 非流式模型:约 3100 MB

  • NLP 模型

    • 每个 BERT 模型约 500MB

  • TTS 模型

    • 约 3500 MB

  • 总计

    • 16000 MB

软件#

下表显示了 Jarvis 1.3.0 Beta 支持的软件。

软件兼容性

容器

Docker

  • Docker > 19.02,并安装了 nvidia-docker

  • 对于 DGX 以外的用户,需要 Docker >= 19.03。

注意

对于 DGX 用户,请参阅 准备使用 NVIDIA 容器

Helm

NVIDIA 驱动程序

注意

对于更早的驱动程序版本,请参阅 深度学习框架支持矩阵中的 NVIDIA 驱动程序部分。

Jarvis 1.2.x Beta

硬件#

下表显示了 Jarvis 1.2.0 Beta 支持的硬件。

硬件兼容性

操作系统

Jarvis 服务器需要 Linux x86_64。

GPU 型号

首选部署平台

注意

Jarvis 在任何 Volta 或更高版本的 NVIDIA GPU(Volta、Turing 和 NVIDIA Ampere GPU 架构)上均受支持以用于开发目的。 选择要部署的模型时,必须注意不要超过可用内存。

麦克风、摄像头和耳机

麦克风:

  • 带有 USB 麦克风的 Linux x86(例如,Logitech H390 USB 电脑耳机)

耳机:

  • Logitech H340

  • Logitech H390

  • Microsoft LX3000

GPU 内存

  • ASR 模型

    • 流式模型:约 5600 MB

    • 非流式模型:约 3100 MB

  • NLP 模型

    • 每个 BERT 模型约 500MB

  • TTS 模型

    • 约 3500 MB

  • 总计

    • 16000 MB

软件#

下表显示了 Jarvis 1.2.0 Beta 支持的软件。

软件兼容性

容器

Docker

  • Docker > 19.02,并安装了 nvidia-docker

  • 对于 DGX 以外的用户,需要 Docker >= 19.03。

注意

对于 DGX 用户,请参阅 准备使用 NVIDIA 容器

Helm

NVIDIA 驱动程序

注意

对于更早的驱动程序版本,请参阅 深度学习框架支持矩阵中的 NVIDIA 驱动程序部分。

Jarvis 1.1.0 Beta

硬件#

下表显示了 Jarvis 1.1.0 Beta 支持的硬件。

硬件兼容性

操作系统

Jarvis 服务器需要 Linux x86_64。

GPU 型号

首选部署平台

注意

Jarvis 在任何 Volta 或更高版本的 NVIDIA GPU(Volta、Turing 和 NVIDIA Ampere GPU 架构)上均受支持以用于开发目的。 选择要部署的模型时,必须注意不要超过可用内存。

麦克风、摄像头和耳机

麦克风:

  • 带有 USB 麦克风的 Linux x86(例如,Logitech H390 USB 电脑耳机)

耳机:

  • Logitech H340

  • Logitech H390

  • Microsoft LX3000

GPU 内存

  • ASR 模型

    • 流式模型:约 5600 MB

    • 非流式模型:约 3100 MB

  • NLP 模型

    • 每个 BERT 模型约 500MB

  • TTS 模型

    • 约 3500 MB

  • 总计

    • 16000 MB

软件#

下表显示了 Jarvis 1.1.0 Beta 支持的软件。

软件兼容性

CUDA

Docker

  • Docker > 19.02,并安装了 nvidia-docker

  • 对于 DGX 以外的用户,需要 Docker >= 19.03。

注意

对于 DGX 用户,请参阅 准备使用 NVIDIA 容器

Helm

NVIDIA 驱动程序

注意

对于更早的驱动程序版本,请参阅 深度学习框架支持矩阵中的 NVIDIA 驱动程序部分。

Jarvis 1.0.x Beta

硬件#

下表显示了 Jarvis 1.0.0 Beta 支持的硬件。

硬件兼容性

操作系统

Jarvis 服务器需要 Linux x86_64。

GPU 型号

首选部署平台

注意

Jarvis 在任何 Volta 或更高版本的 NVIDIA GPU(Volta、Turing 和 NVIDIA Ampere GPU 架构)上均受支持以用于开发目的。 选择要部署的模型时,必须注意不要超过可用内存。

麦克风、摄像头和耳机

麦克风:

  • 带有 USB 麦克风的 Linux x86(例如,Logitech H390 USB 电脑耳机)

耳机:

  • Logitech H340

  • Logitech H390

  • Microsoft LX3000

GPU 内存

  • ASR 模型

    • 流式模型:约 5600 MB

    • 非流式模型:约 3100 MB

  • NLP 模型

    • 每个 BERT 模型约 500MB

  • TTS 模型

    • 约 3500 MB

  • 总计

    • 16000 MB

软件#

下表显示了 Jarvis 1.0.0 Beta 支持的软件。

软件兼容性

CUDA

Docker

  • Docker > 19.02,并安装了 nvidia-docker

  • 对于 DGX 以外的用户,需要 Docker >= 19.03。

注意

对于 DGX 用户,请参阅 准备使用 NVIDIA 容器

Helm

NVIDIA 驱动程序

注意

对于更早的驱动程序版本,请参阅 深度学习框架支持矩阵中的 NVIDIA 驱动程序部分。