先决条件#
请确保您熟悉以下安装要求和注意事项。
如果您使用 TensorRT Python API 和 CUDA-Python,但尚未在您的系统上安装,请参阅 NVIDIA CUDA-Python 文档。
请熟悉 NVIDIA TensorRT 发行说明 以了解最新功能和已知问题。
请验证您是否已安装 NVIDIA CUDA 工具包。如果尚未安装 CUDA,请查看 NVIDIA CUDA 安装指南 以获取有关安装 CUDA 工具包的说明。以下版本受支持
cuDNN 现在是 TensorRT 的可选依赖项,仅用于加速一些已弃用的层。在 Blackwell 及更高版本的 GPU 上,TensorRT 不支持使用 cuDNN,并且不为这些已弃用的层提供支持。如果您的应用程序或模型需要 cuDNN,请验证是否已安装。有关更多信息,请查看 NVIDIA cuDNN 安装指南。TensorRT 10.8.0 支持 cuDNN 8.9.7。精简版或调度运行时不使用 cuDNN。
cuBLAS 现在是 TensorRT 的可选依赖项,仅用于加速一些层。如果您的应用程序或模型需要 cuBLAS,请验证是否已安装。有关更多信息,请查看 NVIDIA cuBLAS 网站。
一些 Python 示例需要 TensorFlow 2.13.1,例如
efficientdet
和efficientnet
。PyTorch 示例已使用 PyTorch >= 2.0 进行测试,但也可能适用于旧版本。
ONNX-TensorRT 解析器已使用 ONNX 1.16.0 进行测试,并支持 opset 20。
以下安装说明假设您需要 C++ 和 Python API。但是,在某些环境和用例中,您可能不需要安装 Python 功能。如果是这样,请不要安装标记为 Python 的 Debian 或 RPM 包。C++ API 功能都不依赖于 Python。
我们提供三种不同的 TensorRT 安装模式
TensorRT 的完整安装,包括 TensorRT 计划文件构建器功能。此模式与 TensorRT 8.6.0 之前提供的运行时相同。
精简运行时安装比完整安装小得多。它允许您加载和运行使用版本兼容的构建器标志构建的引擎。但是,此安装不提供构建 TensorRT 计划文件的功能。
调度运行时安装。此安装允许以最小的内存消耗进行部署。它允许您加载和运行使用版本兼容的构建器标志构建的引擎,并包括精简运行时。但是,它不提供构建 TensorRT 计划文件的功能。
对于只想将 ONNX 模型转换为 TensorRT 引擎的开发人员,可以使用 Nsight Deep Learning Designer,这是一个基于 GUI 的工具,无需单独安装 TensorRT。Nsight Deep Learning Designer 会按需自动下载必要的 TensorRT 组件(包括 CUDA、cuDNN 和 cuBLAS)。