跳到主要内容
Ctrl+K
NVIDIA AI Enterprise: CPU Only Deployment Guide - Home

NVIDIA AI Enterprise:CPU Only Deployment Guide

  • 文档主页
NVIDIA AI Enterprise: CPU Only Deployment Guide - Home

NVIDIA AI Enterprise:CPU Only Deployment Guide

  • 文档主页

目录

NVIDIA AI Enterprise

  • 企业级 AI 软件平台

部署指南

  • 概述
  • 前提条件
  • NVIDIA 许可证系统
  • 安装容器运行时
  • 安装 AI 和数据科学应用程序及框架
  • 高级框架配置

支持

  • 支持与服务

声明

  • 声明

NVIDIA AI Enterprise CPU Only Deployment Guide#

本文档深入介绍了 NVIDIA AI Enterprise 的纯 CPU 部署,并作为理解系统前提条件、安装和配置的技术资源。

NVIDIA AI Enterprise

  • 企业级 AI 软件平台
    • NVIDIA 企业级 AI 软件平台
    • NVIDIA AI 软件支持
    • NVIDIA AI 工作流程
    • 生产就绪的预训练模型
    • NVIDIA NIM
    • 支持的硬件和软件

部署指南

  • 概述
  • 前提条件
    • 硬件要求
    • 支持的部署方法
    • 安装 NGC Catalog CLI
  • NVIDIA 许可证系统
    • NVIDIA 许可证系统用户指南
  • 安装容器运行时
    • 为 Ubuntu 安装 Docker
    • 为 Red Hat Enterprise Linux 安装 Podman
    • 无根容器设置(可选)
  • 安装 AI 和数据科学应用程序及框架
    • 访问 AI 和数据科学工具及框架
    • NVIDIA AI Enterprise 搜索过滤器
    • NVIDIA Triton Inference Server
    • NVIDIA RAPIDS
    • PyTorch
    • TensorFlow
  • 高级框架配置
    • 保护 notebook 服务器的安全
    • 单个容器的启动脚本
      • Jupyter 的启动脚本
        • RAPIDS 容器
        • TensorFlow1 容器
        • TensorFlow2 容器
        • PyTorch 容器
      • 组合启动脚本
      • 启用启动脚本
    • Triton Inference Server 的启动脚本

支持

  • 支持与服务

声明

  • 声明
    • 声明
    • 商标
    • 版权

下一页

企业级 AI 软件平台

NVIDIA NVIDIA
隐私政策 | 管理我的隐私 | 请勿出售或分享我的数据 | 服务条款 | 无障碍访问 | 公司政策 | 产品安全 | 联系我们

版权所有 © 2021-2025 NVIDIA Corporation。

上次更新于 2025 年 1 月 9 日。

© . All rights reserved.