配置#
Riva TTS NIM 在底层使用 Docker 容器。每个 NIM 都有其自己的 Docker 容器,并且有几种配置方法。本节的剩余部分将介绍如何配置 NIM 容器。
GPU 选择#
在具有两个或更多 GPU 的环境中,不支持将 --gpus all
传递给 docker run。
在具有 GPU 组合的环境中,使用以下任一方法在容器内公开特定的 GPU:
--gpus
标志(例如:--gpus='"device=1"'
)环境变量
NVIDIA_VISIBLE_DEVICES
(例如:-e NVIDIA_VISIBLE_DEVICES=1
)
要用作输入的设备 ID 列在 nvidia-smi -L
的输出中
GPU 0: Tesla H100 (UUID: GPU-b404a1a1-d532-5b5c-20bc-b34e37f3ac46)
GPU 1: NVIDIA GeForce RTX 3080 (UUID: GPU-b404a1a1-d532-5b5c-20bc-b34e37f3ac46)
有关更多说明,请参阅 NVIDIA Container Toolkit 文档。
环境变量#
下表描述了可以作为添加到 docker run
命令的 -e
参数传递到 NIM 中的环境变量
ENV |
必需? |
默认值 |
注释 |
---|---|---|---|
|
是 |
无 |
您必须将此变量设置为您的个人 NGC API 密钥的值。 |
|
是 |
|
容器缓存模型工件的位置(在容器中)。 |
|
是 |
|
将 NIM 服务发布到容器内指定的端口。确保调整传递给 docker run 的 |
|
是 |
|
通过 GRPC 将 Riva TTS 服务发布到容器内指定的端口。确保调整传递给 docker run 的 |
卷#
下表描述了容器内的路径,可以将本地路径挂载到这些路径中。
容器路径 |
必需 |
注释 |
Docker 参数示例 |
---|---|---|---|
|
不是必需的,但如果未挂载此卷,则容器每次启动时都会全新下载模型。 |
这是模型在容器内下载的目录。非常重要的是,可以从容器内部访问此目录。这可以通过将选项 |
|