安装 AI 和数据科学应用程序及框架#
在版本 2.0 中添加。
访问 AI 和数据科学工具及框架#
AI 和数据科学应用程序及框架通过 NVIDIA NGC Catalog 作为 NGC 容器镜像分发。每个容器镜像包含运行应用程序或框架所需的完整用户空间软件栈;即 CUDA 库、cuDNN、任何必需的 Magnum IO 组件、TensorRT 和框架。
在您想要从中拉取 AI 和数据科学容器的环境中执行以下工作流程步骤。
首先,您需要使用您的 NVIDIA 帐户和密码登录 NGC。
导航到设置。
选择“获取 API 密钥”。
生成您的 API 密钥。
确认生成新的 API 密钥。
将您的 API 密钥复制到剪贴板
注意
选择确认将生成新的 API 密钥,并且您旧的 API 密钥将失效(如果适用)。
![]()
当您从命令行与存储库交互时,如果您想拉取锁定的容器镜像或推送回注册表,则需要使用 API 密钥。API 密钥对您而言是唯一的,并且与您的帐户关联。
重要提示
请将您的 API 密钥保密并放在安全的地方。不要共享它或将其存储在其他人可以看到或复制它的地方。
返回到 SSH 会话和/或环境终端以登录 Docker 并开始从 NVIDIA NGC Catalog 拉取容器。
登录到 NGC 容器注册表。
docker login nvcr.io
当提示您输入用户名时,输入以下文本
$oauthtoken
注意
$oauthtoken 用户名是一个特殊的用户名,它表示您将使用 API 密钥而不是用户名和密码进行身份验证。
当提示您输入密码时,粘贴您的 NGC API 密钥,如下例所示。
Username: $oauthtoken Password: my-api-key注意
当您按照 生成您的 NGC API 密钥 中的说明获取 API 密钥后,将其复制到剪贴板,以便在提示您输入密码时将其粘贴到命令 shell 中。
生产分支旨在为构建在 NVIDIA AI 上的应用程序提供稳定性和安全性,提供 9 个月的支持、API 稳定性以及针对高危和严重软件漏洞的每月修复。生产分支提供了一个稳定且安全的环境,以维护任务关键型 AI 应用程序的正常运行时间。
功能分支和模型提供最新的 AI 框架、库、工作流程、模型和工具,用于性能优化的 AI 开发和部署软件。
NVIDIA AI Enterprise 的 Infra 版本为 IT 专业人员提供基础设施优化和管理软件,以高效地管理和扩展 AI 工作负载。
下面的章节提供了使用 Tensorflow 的容器拉取的示例,其中包含详细步骤。我们将使用“拉取标签”功能,以便轻松地将我们的容器拉取命令复制并粘贴到所需的环境中。
NVIDIA AI Enterprise 搜索过滤器#
通过使用 NVIDIA AI Enterprise 搜索过滤器,用户可以通过 NGC 目录访问针对深度学习、机器学习和 HPC 优化的 GPU 软件,该目录提供容器、模型、模型脚本和行业解决方案。
下面的章节提供了使用 NVIDIA RAPIDS 生产分支的容器拉取的示例,其中包含详细步骤,这些步骤使用了 NVIDIA AI Enterprise 搜索过滤器。我们将使用“拉取标签”功能,以便轻松地将我们的容器拉取命令复制并粘贴到所需的环境中。
导航到搜索过滤器并选择 NVIDIA AI Enterprise Support、NVIDIA AI Enterprise Essentials、Container 和 Rapids,如下图所示。
导航到获取容器并将命令复制到剪贴板。
将命令粘贴到您的 SSH 会话中
sudo docker pull nvcr.io/nvidia/rapids-pb23h2:23.06.04-runtime
对于您感兴趣的每个 AI 或数据科学应用程序,使用拉取命令功能加载容器。
为了参考,下面详细介绍了用于下载每个应用程序或框架的容器的 Docker 拉取命令,其中上下文为 <NVAIE-CONTAINER-TAG>
NVIDIA Triton 推理服务器#
Triton 推理服务器是一个开源软件,它允许团队从任何框架、本地或云存储以及云、数据中心或嵌入式设备中的任何基于 GPU 或 CPU 的基础设施部署训练好的 AI 模型。
xx.yy-py3 镜像包含 Triton 推理服务器,支持 Tensorflow、PyTorch、TensorRT、ONNX 和 OpenVINO 模型。
sudo docker pull nvcr.io/nvidia/tritonserver:<NVAIE-CONTAINER-TAG>
NVIDIA RAPIDS#
NVIDIA RAPIDS 软件库套件让您可以自由地完全在 GPU 上执行端到端的数据科学、机器学习和分析管道。
sudo docker pull nvcr.io/nvidia/nvidia-rapids:<NVAIE-CONTAINER-TAG>
PyTorch#
PyTorch 是一个 GPU 加速的张量计算框架。功能可以通过常见的 Python 库(如 NumPy 和 SciPy)进行扩展。自动微分是通过基于磁带的系统在功能和神经网络层级完成的。
sudo docker pull nvcr.io/nvidia/pytorch:<NVAIE-CONTAINER-TAG>
TensorFlow#
TensorFlow 是一个用于机器学习的开源平台。它在灵活的架构中提供全面的工具和库,允许跨各种平台和设备轻松部署。
1sudo docker pull nvcr.io/nvidia/tensorflow:<NVAIE-CONTAINER-TAG>
2sudo docker pull nvcr.io/nvidia/tensorflow:<NVAIE-CONTAINER-TAG>