TRTEXEC 与 YOLO_v4_tiny
trtexec
工具是一个命令行封装器,作为 TensorRT 示例的一部分包含在内。TAO 5.0.0 在 TAO Deploy
容器(或通过启动器运行时为任务组)中公开了 trtexec
工具,用于在基于 x86 的 CPU 和独立 GPU 上部署模型。要在其他平台(如 Jetson 设备)上或在使用 TAO 容器中默认未使用的 TensorRT 版本上运行 trtexec
,您可以参考 官方 TensorRT 文档,了解如何获取 trtexec。
本节介绍如何使用 trtexec
生成 TensorRT 引擎,这使您能够在 TensorRT、Triton 和 Deepstream 上部署 TAO 训练的模型。
要为 YOLO_v4_tiny 生成 .onnx
文件,请参阅 YOLO_v4_tiny 文档。您还可以参考 YOLO_v4_tiny TAO-Deploy 文档,获取有关生成 INT8 校准文件的说明。
trtexec --onnx=/path/to/model.onnx \
--maxShapes=Input:16x3x384x1248 \
--minShapes=Input:1x3x384x1248 \
--optShapes=Input:8x3x384x1248 \
--calib=/path/to/int8/calib.txt \
--fp16 \
--int8 \
--saveEngine=/path/to/save/trt/model.engine