企业级 AI 软件平台#
NVIDIA 企业级 AI 软件平台#
NVIDIA AI Enterprise 是一个端到端的云原生软件平台,可加速数据科学管道,并简化生产级副驾驶和其他生成式 AI 应用程序的开发和部署。易于使用的微服务提供优化的模型性能以及企业级安全性、支持和稳定性,从而确保在原型到生产的平稳过渡,适用于在 AI 上运营业务的企业。

NVIDIA AI Enterprise 与加速平台紧密集成,通过软件优化加速 AI 工作负载。这不仅提高了效率和性能,还减少了数据中心的能源消耗、空间占用和投资,从而有助于更可持续的计算并节省生产时间成本。
- 企业级安全性、稳定性、可管理性和支持
随着 AI 的快速发展和扩展,软件堆栈及其依赖项的复杂性也随之增加。NVIDIA AI Enterprise 旨在运行企业赖以运行的关键任务 AI,通过定期发布针对关键和常见漏洞和暴露 (CVE) 的安全补丁、用于 API 稳定性的生产分支、端到端管理软件以及具有服务级别协议 (SLA) 的企业支持。
- 云原生且经过认证可在任何地方运行
NVIDIA AI Enterprise 经过优化和认证,可确保在公共云、虚拟化数据中心或 DGX 平台上运行 AI 时性能可靠。这提供了只需开发一次应用程序即可随处部署的灵活性,从而降低了因环境之间基础设施和架构差异而导致的从试点到生产的过渡风险。
NVIDIA AI 软件支持#
NVIDIA AI 应用程序框架、NVIDIA 预训练模型以及 NGC 上提供的所有其他 NVIDIA AI 软件均受 NVIDIA AI Enterprise 许可支持。借助 100 多个 AI 框架和预训练模型,包括 NeMo、Maxine、cuOpt 等,请在 NGC 上查找“NVIDIA AI Enterprise Supported”标签。
组织通过使用开放、免费提供的 NGC 库和框架开始他们的 AI 之旅,进行实验和试点。现在,当他们准备好从试点转向生产时,企业可以轻松地通过 NVIDIA AI Enterprise 订阅过渡到完全托管且安全的 AI 平台。这为部署关键业务 AI 的企业提供了业务连续性的保证,通过 NVIDIA 企业支持并可以访问 NVIDIA AI 专家。
NVIDIA AI 工作流程#
NVIDIA AI Enterprise 包括用于构建 AI 应用程序的全新 AI 解决方案工作流程,包括联络中心智能虚拟助手、音频转录和网络安全数字指纹识别以检测异常。这些打包的 AI 工作流程示例包括 NVIDIA AI 框架和预训练模型,以及 Helm Charts、Jupyter Notebooks 和文档等资源,以帮助客户更轻松地开始构建基于 AI 的解决方案。NVIDIA 的云原生 AI 工作流程作为微服务运行,可以单独或与其他微服务一起部署在 Kubernetes 上,以创建可用于生产的应用程序。

主要优势
以更低的成本缩短开发时间
提高准确性和性能
通过利用 NVIDIA 专业知识,对结果充满信心
可用于生产的预训练模型#
预训练 AI 模型通过消除从头开始构建模型的需求,使高性能 AI 开发变得轻松、快速且易于访问。NVIDIA AI Enterprise 包括未加密的预训练模型,用于医疗保健和视觉 AI 任务,例如人员检测、车辆检测、联邦学习模型、图像配准等。通过访问这些预训练模型,开发人员可以查看模型的权重和偏差,这有助于模型的可解释性并理解模型偏差。此外,未加密的模型更易于调试和集成到自定义 AI 应用程序中。
NVIDIA NIM#
NVIDIA NIM 是 NVIDIA AI Enterprise 的一部分,是一组易于使用的微服务,旨在加速在您的企业中部署生成式 AI。这种通用的运行时支持广泛的 AI 模型,从开源社区模型到 NVIDIA AI 基础模型,以及自定义 AI 模型。利用行业标准 API,开发人员只需几行代码即可快速构建企业级 AI 应用程序。NIM 构建于强大的基础之上,包括 Triton Inference Server、TensorRT、TensorRT-LLM 和 PyTorch 等推理引擎,旨在促进大规模无缝 AI 推理,确保您可以放心地在任何地方部署 AI 应用程序。无论是在本地还是在云端,NIM 都是实现大规模加速生成式 AI 推理的最快方法。
访问 NVIDIA NIM 文档中心 以获取更多信息。
支持的硬件和软件#
NVIDIA AI Enterprise 经过认证可在公共云、数据中心、工作站、DGX 平台到边缘运行。支持的配置的完整列表在 NVIDIA AI Enterprise 产品支持矩阵 中列出。
NVIDIA 企业支持和服务指南 提供了有关使用 NVIDIA 企业支持和服务的信息。本文档适用于 NVIDIA 的潜在和现有企业客户。本用户指南是非约束性文件,应用于获取有关 NVIDIA 企业品牌支持和服务的信息。
使用 NPN 合作伙伴查找工具 获取合作伙伴和 OEM(原始设备制造商)支持。
使用 消费者支持 网页获取 NVIDIA 消费者支持。