示例配置和流#
软件包内容#
本节提供有关包含的示例配置和流的信息。
samples:包含示例配置文件、流和模型以运行示例应用程序的目录。
samples/configs/deepstream-app:参考应用程序的配置文件
下表提供了有关 samples/configs/deepstream-app
目录中参考应用程序的配置文件的信息。
samples/configs/deepstream-app 中参考应用程序的示例配置# 配置文件
描述
平台
source30_1080p_dec_infer-resnet_tiled_display_int8.txt
演示了 30 个流解码与主要推理
仅适用于 dGPU 和 Jetson AGX Orin 平台。
source30_1080p_dec_infer-resnet_tiled_display_int8.yml
基于 YAML 的配置文件,用于演示 30 个流解码与主要推理,仅适用于 dGPU 和 Jetson AGX Orin 平台。
仅适用于 dGPU 和 Jetson AGX Orin 平台。
source4_1080p_dec_infer-resnet_tiled_display_int8.txt
演示了四个流解码与主要推理、对象跟踪和两个不同的辅助分类器
仅适用于 dGPU 和 Jetson AGX Orin 平台。
source4_1080p_dec_infer-resnet_tracker_sgie_tiled_display_int8.yml
基于 YAML 的配置文件,用于演示四个流解码与主要推理、对象跟踪和两个不同的辅助分类器
仅适用于 dGPU 和 Jetson AGX Orin 平台。
source4_1080p_dec_infer-resnet_tracker_sgie_tiled_display_int8_gpu1.txt
演示了在 GPU 1 上(对于具有多个 GPU 卡的系统)进行四个流解码与主要推理、对象跟踪和两个不同的辅助分类器
仅适用于 dGPU 平台
config_infer_primary.txt
将 nvinfer 元素配置为主要检测器
适用于 dGPU 和 Jetson
config_infer_primary.yml
基于 YAML 的配置文件,用于将 nvinfer 元素配置为主要检测器
适用于 dGPU 和 Jetson
config_infer_secondary_vehiclemake.txt, config_infer_secondary_vehicletypes.txt
将 nvinfer 元素配置为辅助分类器
适用于 dGPU 和 Jetson
config_infer_secondary_vehiclemake.yml, config_infer_secondary_vehicletypes.yml
基于 YAML 的配置文件,用于将 nvinfer 元素配置为辅助分类器
适用于 dGPU 和 Jetson
config_tracker_IOU.yml
IOU 跟踪器的配置文件
适用于 dGPU 和 Jetson
config_tracker_NvSORT.yml
NvSORT 跟踪器的配置文件
适用于 dGPU 和 Jetson
config_tracker_NvDeepSORT.yml
NvDeepSORT 跟踪器的配置文件
适用于 dGPU 和 Jetson
config_tracker_NvDCF_accuracy.yml
用于更高精度的 NvDCF 跟踪器的配置文件
适用于 dGPU 和 Jetson
config_tracker_NvDCF_max_perf.yml
用于最大性能模式的 NvDCF 跟踪器的配置文件
适用于 dGPU 和 Jetson
config_tracker_NvDCF_perf.yml
用于性能模式的 NvDCF 跟踪器的配置文件
适用于 dGPU 和 Jetson
config_preprocess.txt
用于在 PGIE 模式下使用预处理的配置文件
适用于 dGPU 和 Jetson
config_preprocess_sgie.txt
用于在 SGIE 模式下使用预处理的配置文件
适用于 dGPU 和 Jetson
source4_1080p_dec_preprocess_infer-resnet_preprocess_sgie_tiled_display_int8.txt
演示了四个流解码,其中 PGIE 模式下的预处理插件后跟主要推理、SGIE 模式下的预处理插件和两个不同的辅助分类器
仅适用于 dGPU 和 Jetson AGX Orin 平台。
source30_1080p_dec_preprocess_infer-resnet_tiled_display_int8.txt
演示了 30 个流解码,其中 PGIE 模式下的预处理插件后跟主要推理
仅适用于 dGPU 和 Jetson AGX Orin 平台。
sources_30.csv
source30_1080p_dec_infer-resnet_tiled_display_int8.yml 中需要的 30 个源的 CSV 文件
仅适用于 dGPU 和 Jetson AGX Orin 平台。
sources_4.csv
source4_1080p_dec_infer-resnet_tracker_sgie_tiled_display_int8.yml 中需要的 30 个源的 CSV 文件
仅适用于 dGPU 和 Jetson AGX Orin 平台。
source1_usb_dec_infer_resnet_int8.txt
演示了一个 USB 摄像头作为输入
适用于 dGPU 和 Jetson
source1_csi_dec_infer_resnet_int8.txt
演示了一个 CSI 摄像头作为输入
仅适用于 Jetson
source2_csi_usb_dec_infer_resnet_int8.txt
演示了一个 CSI 摄像头和一个 USB 摄像头作为输入
仅适用于 Jetson
source6_csi_dec_infer_resnet_int8.txt
演示了六个 CSI 摄像头作为输入
仅适用于 Jetson
source2_1080p_dec_infer-resnet_demux_int8.txt
演示了两个源的解复用模式
适用于 dGPU 和 Jetson
config_mux_source4.txt, config_mux_source30.txt
示例 nvstreammux(new)配置文件。有关更多详细信息,请参阅Mux 配置属性部分
适用于 dGPU 和 Jetson
samples/configs/deepstream-app-triton:用于使用 Triton Inference Server 进行推理的参考应用程序的配置文件。
下表提供了有关 samples/configs/deepstream-app-triton
目录中参考应用程序的配置文件的信息。
samples/configs/deepstream-app-triton 中用于使用 Triton Inference Server 进行推理的参考应用程序的示例配置# 配置文件
描述
source30_1080p_dec_infer-resnet_tiled_display_int8.txt
30 解码 + 推理
source4_1080p_dec_infer-resnet_tracker_sgie_tiled_display_int8.txt
4 解码 + 推理 + SGIE + 跟踪器
source1_primary_classifier.txt
单源 + 全帧分类
source1_1080p_dec_infer_peoplesemsegnet_shuffle.txt
单源 + 语义分割
source1_primary_detector_peoplenet_transformer.txt
单源 + 全帧分类
source1_primary_detector.txt
单源 + 使用 ssd 的对象检测
注意
可以通过更改应用程序配置文件 [*-gie]
组中的 ds-triton nvinferserver
配置文件来使用其他分类模型。
用于 configs/deepstream-app-triton/ 中 ds-triton
nvinferserver
元素的配置文件。下表提供了有关samples/configs/deepstream-app-triton
目录中参考应用程序的配置文件的信息。samples/configs/deepstream-app-triton 中 ds-triton nvinferserver
元素的示例配置#配置文件
描述
config_infer_plan_engine_primary.txt
主要对象检测器
config_infer_secondary_plan_engine_vehiclemake.txt
辅助车辆制造商分类器
config_infer_secondary_plan_engine_vehicletypes.txt
辅助车辆类型分类器
config_infer_primary_classifier_densenet_onnx.txt
DenseNet-121 v1.2 分类器
config_infer_primary_classifier_inception_graphdef_postprocessInTriton.txt
TensorFlow Inception v3 分类器 - Triton 中的后处理
config_infer_primary_classifier_inception_graphdef_postprocessInDS.txt
TensorFlow Inception v3 分类器 - DeepStream 中的后处理
config_infer_primary_detector_ssd_inception_v2_coco_2018_01_28.txt
TensorFlow SSD Inception V2 对象检测器
config_infer_primary_classifier_mobilenet_v1_graphdef.txt
TensorFlow Mobilenet V1 分类器
config_infer_primary_detector_ssd_mobilenet_v1_coco_2018_01_28.txt
TensorFlow Mobilenet V1 对象检测器
samples/configs/deepstream-app-triton-grpc:用于使用 Triton Inference Server gRPC 进行推理的参考应用程序的配置文件
下表提供了有关在 samples/configs/deepstream-app-triton-grpc
目录中使用 Triton Inference Server gRPC 的参考应用程序的配置文件的信息。
samples/configs/deepstream-app-triton-grpc 中用于使用 Triton Inference Server gRPC 进行推理的示例配置# 配置文件
描述
source30_1080p_dec_infer-resnet_tiled_display_int8.txt
30 解码 + 推理
source4_1080p_dec_infer-resnet_tracker_sgie_tiled_display_int8.txt
4 解码 + 推理 + SGIE + 跟踪器
用于 configs/deepstream-app-triton-grpc/ 中 ds-triton
nvinferserver
元素的配置文件。下表提供了有关在samples/configs/deepstream-app-triton-grpc
目录中使用 Triton Inference Server nvinferserver 的参考应用程序的配置文件的信息。samples/configs/deepstream-app-triton-grpc 中用于使用 Triton Inference Server gRPC 进行推理的示例配置# 配置文件
描述
config_infer_plan_engine_primary.txt
主要对象检测器
config_infer_secondary_plan_engine_vehiclemake.txt
辅助车辆制造商分类器
config_infer_secondary_plan_engine_vehicletypes.txt
辅助车辆类型分类器
NVIDIA TAO Toolkit 预训练模型
samples/configs/tao_pretrained_models:包含用于获取 TAO 工具包的配置和模型的 README.md。
samples:包含示例配置文件、模型和流以运行示例应用程序的目录。
samples/streams:DeepStream SDK 提供了以下流
流
流类型
sample_1080p_h264.mp4
H264 容器化流
sample_1080p_h265.mp4
H265 容器化流
sample_720p.h264
H264 基本流
sample_720p.jpg
JPEG 图像
sample_720p_mjpeg.mp4
MJPEG 容器化流
sample_720p.mp4
容器化流
sample_cam5.mp4
H264 容器化流(360D 摄像头流)
sample_cam6.mp4
H264 容器化流(360D 摄像头流)
sample_industrial.jpg
JPEG 图像
yoga.jpg
Dewarper 中透视投影的图像
yoga.mp4
容器化流
sample_qHD.mp4
用于 MaskRCNN
sample_qHD.h264
H264 基本流
sample_push.mov
H264 容器化流
sample_ride_bike.mov
H264 容器化流
sample_run.mov
H264 容器化流
sample_walk.mov
H264 容器化流
fisheye_dist.mp4
容器化流
sonyc_mixed_audio.wav
音频比特流
sample_office.mp4
容器化流
pointcloud
包含激光雷达应用程序的输入文件
samples/models:SDK 提供了以下示例模型
DeepStream 参考应用程序
模型 |
模型类型 |
类数 |
分辨率 |
---|---|---|---|
主要检测器 |
Resnet18 |
4 |
960 × 544 |
辅助车辆制造商分类器 |
Resnet18 |
20 |
224 × 224 |
辅助车辆类型分类器 |
Resnet18 |
6 |
224 × 224 |
分割示例
模型 |
模型类型 |
类数 |
分辨率 |
---|---|---|---|
工业 |
Resnet18 + UNet |
1 |
512 x 512 |
语义 |
Resnet18 + UNet |
4 |
512 x 512 |
实例 |
Resnet50 + Maskrcnn |
2 |
1344 x 832 |
软件包中包含的脚本#
注意
下面提到的脚本
prepare_classification_test_video.sh
需要安装ffmpeg
。一些低级编解码器库需要与 ffmpeg 一起重新安装。使用以下命令安装/重新安装 ffmpeg:
apt-get install --reinstall libflac8 libmp3lame0 libxvidcore4 ffmpeg
示例应用程序包中包含以下脚本
samples/ prepare_classification_test_video.sh:下载 Imagenet 测试图像并从中创建一个视频,以使用 TensorFlow Inception、ONNX DenseNet 等分类模型进行测试。
samples/ prepare_ds_triton_model_repo.sh:为 Triton Inference Server 准备模型存储库
为 SDK 提供的 Caffe 和 UFF 模型创建引擎文件。
下载 ONNX DenseNet、SSD Inception V2 Coco、Inception v3 的模型文件。
有关上述模型的更多信息,请参考
ONNX DenseNet - onnx/models
SSD Inception V2 Coco - tensorflow/models
Inception V3 - tensorflow/models
samples/ prepare_ds_triton_tao_model_repo.sh:为 Triton Tao Inference Server 准备模型存储库
下载 Peoplenet Transformer、Peoplesemsegnet Shuffle、Facenet 的模型文件。
为下载的模型创建引擎文件。
uninstall.sh:用于清理之前的 DS 安装。