概述#
在 2.0 版本中添加。
本文档深入介绍了在 VMWare vSphere 上运行的 NVIDIA AI Enterprise 的仅 CPU 部署,并作为理解系统先决条件、安装和配置的技术资源。
先决条件
NVIDIA 许可证系统
安装 Docker 和 Docker 实用引擎
安装 AI 和数据科学应用程序与框架
一旦完成上述安装,我们将介绍高级框架配置的详细信息。 这包括 NVIDIA AI Enterprise 的推荐启动脚本,以开始使用 AI。
重要提示
以下 NVIDIA AI Enterprise 容器可以仅使用 CPU 运行
Triton 推理服务器
RAPIDS
PyTorch
TensorFlow
NVIDIA AI Enterprise 容器可以在裸机和虚拟化部署中运行,并支持 VMware vSphere。本文档重点介绍在 VMware vSphere 上运行的情况。
有关 GPU 加速部署的更多信息,请参阅 NVIDIA AI Enterprise 裸机、VMware vSphere 和 OpenShift on VMware 部署指南。