验证#

在版本 2.0 中添加。

以下说明旨在作为开始基准测试的快捷方式。在每个基准测试的工作目录中,都有一个 README 文件(名为 README.md 或 README.txt),其中提供了有关数据下载、预处理和运行代码的更多详细信息。

出于演示目的,我们将运行深度学习推理。有关运行深度学习训练工作流程的更多信息,请参阅NVIDIA 多节点训练部署 <deployment-guide-multi-node:multi-node-overview>文档。

TensorRT RN50 推理#

  • 此示例中使用的容器是 nvcr.io/nvaie/tensorrt-<NVAIE-MAJOR-VERSION>:<NVAIE-CONTAINER-TAG>

  • 所需的二进制文件包含在容器中,路径为 /workspace/tensorrt/bin

  • Resnet50 模型 prototxt 和 caffemodel 文件位于容器内的 /workspace/tensorrt/data/resnet50

  • 该命令可能需要几分钟才能运行,因为 NVIDIA® TensorRT™ 正在运行前构建优化的计划。如果您希望查看它正在做什么,请将 --verbose 添加到命令中。

运行测试的命令#

1$ sudo podman pull nvcr.io/nvaie/tensorrt-<NVAIE-MAJOR-VERSION>:<NVAIE-CONTAINER-TAG>
2$ sudo podman run --gpus all -it --rm -v $(pwd):/work nvcr.io/nvaie/tensorrt-<NVAIE-MAJOR-VERSION>:<NVAIE-CONTAINER-TAG>
3# cd /workspace/tensorrt/data/resnet50    (to exit container, type “exit”)
4# /workspace/tensorrt/bin/trtexec --batch=128 --iterations=400 --workspace=1024 --percentile=99 --deploy=ResNet50_N2.prototxt --model=ResNet50_fp32.caffemodel --output=prob --int8

解释结果#

结果以推理给定批次大小的时间报告。要转换为每秒图像数,请计算 BATCH_SIZE/AVERAGE_TIME。平均时间可以在 tensorrt-<NVAIE-MAJOR-VERSION>:<NVAIE-CONTAINER-TAG> 推理输出的平均 GPU 计算值中找到。