示例配置和流#

软件包内容#

本节提供有关包含的示例配置和流的信息。

  • samples:包含示例配置文件、流和模型以运行示例应用程序的目录。

samples/configs/deepstream-app:参考应用程序的配置文件

下表提供了有关 samples/configs/deepstream-app 目录中参考应用程序的配置文件的信息。

samples/configs/deepstream-app 中参考应用程序的示例配置#

配置文件

描述

平台

source30_1080p_dec_infer-resnet_tiled_display_int8.txt

演示了 30 个流解码与主要推理

仅适用于 dGPU 和 Jetson AGX Orin 平台。

source30_1080p_dec_infer-resnet_tiled_display_int8.yml

基于 YAML 的配置文件,用于演示 30 个流解码与主要推理,仅适用于 dGPU 和 Jetson AGX Orin 平台。

仅适用于 dGPU 和 Jetson AGX Orin 平台。

source4_1080p_dec_infer-resnet_tiled_display_int8.txt

演示了四个流解码与主要推理、对象跟踪和两个不同的辅助分类器

仅适用于 dGPU 和 Jetson AGX Orin 平台。

source4_1080p_dec_infer-resnet_tracker_sgie_tiled_display_int8.yml

基于 YAML 的配置文件,用于演示四个流解码与主要推理、对象跟踪和两个不同的辅助分类器

仅适用于 dGPU 和 Jetson AGX Orin 平台。

source4_1080p_dec_infer-resnet_tracker_sgie_tiled_display_int8_gpu1.txt

演示了在 GPU 1 上(对于具有多个 GPU 卡的系统)进行四个流解码与主要推理、对象跟踪和两个不同的辅助分类器

仅适用于 dGPU 平台

config_infer_primary.txt

将 nvinfer 元素配置为主要检测器

适用于 dGPU 和 Jetson

config_infer_primary.yml

基于 YAML 的配置文件,用于将 nvinfer 元素配置为主要检测器

适用于 dGPU 和 Jetson

config_infer_secondary_vehiclemake.txt, config_infer_secondary_vehicletypes.txt

将 nvinfer 元素配置为辅助分类器

适用于 dGPU 和 Jetson

config_infer_secondary_vehiclemake.yml, config_infer_secondary_vehicletypes.yml

基于 YAML 的配置文件,用于将 nvinfer 元素配置为辅助分类器

适用于 dGPU 和 Jetson

config_tracker_IOU.yml

IOU 跟踪器的配置文件

适用于 dGPU 和 Jetson

config_tracker_NvSORT.yml

NvSORT 跟踪器的配置文件

适用于 dGPU 和 Jetson

config_tracker_NvDeepSORT.yml

NvDeepSORT 跟踪器的配置文件

适用于 dGPU 和 Jetson

config_tracker_NvDCF_accuracy.yml

用于更高精度的 NvDCF 跟踪器的配置文件

适用于 dGPU 和 Jetson

config_tracker_NvDCF_max_perf.yml

用于最大性能模式的 NvDCF 跟踪器的配置文件

适用于 dGPU 和 Jetson

config_tracker_NvDCF_perf.yml

用于性能模式的 NvDCF 跟踪器的配置文件

适用于 dGPU 和 Jetson

config_preprocess.txt

用于在 PGIE 模式下使用预处理的配置文件

适用于 dGPU 和 Jetson

config_preprocess_sgie.txt

用于在 SGIE 模式下使用预处理的配置文件

适用于 dGPU 和 Jetson

source4_1080p_dec_preprocess_infer-resnet_preprocess_sgie_tiled_display_int8.txt

演示了四个流解码,其中 PGIE 模式下的预处理插件后跟主要推理、SGIE 模式下的预处理插件和两个不同的辅助分类器

仅适用于 dGPU 和 Jetson AGX Orin 平台。

source30_1080p_dec_preprocess_infer-resnet_tiled_display_int8.txt

演示了 30 个流解码,其中 PGIE 模式下的预处理插件后跟主要推理

仅适用于 dGPU 和 Jetson AGX Orin 平台。

sources_30.csv

source30_1080p_dec_infer-resnet_tiled_display_int8.yml 中需要的 30 个源的 CSV 文件

仅适用于 dGPU 和 Jetson AGX Orin 平台。

sources_4.csv

source4_1080p_dec_infer-resnet_tracker_sgie_tiled_display_int8.yml 中需要的 30 个源的 CSV 文件

仅适用于 dGPU 和 Jetson AGX Orin 平台。

source1_usb_dec_infer_resnet_int8.txt

演示了一个 USB 摄像头作为输入

适用于 dGPU 和 Jetson

source1_csi_dec_infer_resnet_int8.txt

演示了一个 CSI 摄像头作为输入

仅适用于 Jetson

source2_csi_usb_dec_infer_resnet_int8.txt

演示了一个 CSI 摄像头和一个 USB 摄像头作为输入

仅适用于 Jetson

source6_csi_dec_infer_resnet_int8.txt

演示了六个 CSI 摄像头作为输入

仅适用于 Jetson

source2_1080p_dec_infer-resnet_demux_int8.txt

演示了两个源的解复用模式

适用于 dGPU 和 Jetson

config_mux_source4.txt, config_mux_source30.txt

示例 nvstreammux(new)配置文件。有关更多详细信息,请参阅Mux 配置属性部分

适用于 dGPU 和 Jetson

samples/configs/deepstream-app-triton:用于使用 Triton Inference Server 进行推理的参考应用程序的配置文件。

下表提供了有关 samples/configs/deepstream-app-triton 目录中参考应用程序的配置文件的信息。

samples/configs/deepstream-app-triton 中用于使用 Triton Inference Server 进行推理的参考应用程序的示例配置#

配置文件

描述

source30_1080p_dec_infer-resnet_tiled_display_int8.txt

30 解码 + 推理

source4_1080p_dec_infer-resnet_tracker_sgie_tiled_display_int8.txt

4 解码 + 推理 + SGIE + 跟踪器

source1_primary_classifier.txt

单源 + 全帧分类

source1_1080p_dec_infer_peoplesemsegnet_shuffle.txt

单源 + 语义分割

source1_primary_detector_peoplenet_transformer.txt

单源 + 全帧分类

source1_primary_detector.txt

单源 + 使用 ssd 的对象检测

注意

可以通过更改应用程序配置文件 [*-gie] 组中的 ds-triton nvinferserver 配置文件来使用其他分类模型。

  • 用于 configs/deepstream-app-triton/ 中 ds-triton nvinferserver 元素的配置文件。下表提供了有关 samples/configs/deepstream-app-triton 目录中参考应用程序的配置文件的信息。

    samples/configs/deepstream-app-triton 中 ds-triton nvinferserver 元素的示例配置#

    配置文件

    描述

    config_infer_plan_engine_primary.txt

    主要对象检测器

    config_infer_secondary_plan_engine_vehiclemake.txt

    辅助车辆制造商分类器

    config_infer_secondary_plan_engine_vehicletypes.txt

    辅助车辆类型分类器

    config_infer_primary_classifier_densenet_onnx.txt

    DenseNet-121 v1.2 分类器

    config_infer_primary_classifier_inception_graphdef_postprocessInTriton.txt

    TensorFlow Inception v3 分类器 - Triton 中的后处理

    config_infer_primary_classifier_inception_graphdef_postprocessInDS.txt

    TensorFlow Inception v3 分类器 - DeepStream 中的后处理

    config_infer_primary_detector_ssd_inception_v2_coco_2018_01_28.txt

    TensorFlow SSD Inception V2 对象检测器

    config_infer_primary_classifier_mobilenet_v1_graphdef.txt

    TensorFlow Mobilenet V1 分类器

    config_infer_primary_detector_ssd_mobilenet_v1_coco_2018_01_28.txt

    TensorFlow Mobilenet V1 对象检测器

samples/configs/deepstream-app-triton-grpc:用于使用 Triton Inference Server gRPC 进行推理的参考应用程序的配置文件

下表提供了有关在 samples/configs/deepstream-app-triton-grpc 目录中使用 Triton Inference Server gRPC 的参考应用程序的配置文件的信息。

samples/configs/deepstream-app-triton-grpc 中用于使用 Triton Inference Server gRPC 进行推理的示例配置#

配置文件

描述

source30_1080p_dec_infer-resnet_tiled_display_int8.txt

30 解码 + 推理

source4_1080p_dec_infer-resnet_tracker_sgie_tiled_display_int8.txt

4 解码 + 推理 + SGIE + 跟踪器

  • 用于 configs/deepstream-app-triton-grpc/ 中 ds-triton nvinferserver 元素的配置文件。下表提供了有关在 samples/configs/deepstream-app-triton-grpc 目录中使用 Triton Inference Server nvinferserver 的参考应用程序的配置文件的信息。

    samples/configs/deepstream-app-triton-grpc 中用于使用 Triton Inference Server gRPC 进行推理的示例配置#

    配置文件

    描述

    config_infer_plan_engine_primary.txt

    主要对象检测器

    config_infer_secondary_plan_engine_vehiclemake.txt

    辅助车辆制造商分类器

    config_infer_secondary_plan_engine_vehicletypes.txt

    辅助车辆类型分类器

  • NVIDIA TAO Toolkit 预训练模型

    • samples/configs/tao_pretrained_models:包含用于获取 TAO 工具包的配置和模型的 README.md。

  • samples:包含示例配置文件、模型和流以运行示例应用程序的目录。

  • samples/streams:DeepStream SDK 提供了以下流

    流类型

    sample_1080p_h264.mp4

    H264 容器化流

    sample_1080p_h265.mp4

    H265 容器化流

    sample_720p.h264

    H264 基本流

    sample_720p.jpg

    JPEG 图像

    sample_720p_mjpeg.mp4

    MJPEG 容器化流

    sample_720p.mp4

    容器化流

    sample_cam5.mp4

    H264 容器化流(360D 摄像头流)

    sample_cam6.mp4

    H264 容器化流(360D 摄像头流)

    sample_industrial.jpg

    JPEG 图像

    yoga.jpg

    Dewarper 中透视投影的图像

    yoga.mp4

    容器化流

    sample_qHD.mp4

    用于 MaskRCNN

    sample_qHD.h264

    H264 基本流

    sample_push.mov

    H264 容器化流

    sample_ride_bike.mov

    H264 容器化流

    sample_run.mov

    H264 容器化流

    sample_walk.mov

    H264 容器化流

    fisheye_dist.mp4

    容器化流

    sonyc_mixed_audio.wav

    音频比特流

    sample_office.mp4

    容器化流

    pointcloud

    包含激光雷达应用程序的输入文件

  • samples/models:SDK 提供了以下示例模型

DeepStream 参考应用程序

模型

模型类型

类数

分辨率

主要检测器

Resnet18

4

960 × 544

辅助车辆制造商分类器

Resnet18

20

224 × 224

辅助车辆类型分类器

Resnet18

6

224 × 224

分割示例

模型

模型类型

类数

分辨率

工业

Resnet18 + UNet

1

512 x 512

语义

Resnet18 + UNet

4

512 x 512

实例

Resnet50 + Maskrcnn

2

1344 x 832

软件包中包含的脚本#

注意

  • 下面提到的脚本 prepare_classification_test_video.sh 需要安装 ffmpeg。一些低级编解码器库需要与 ffmpeg 一起重新安装。

  • 使用以下命令安装/重新安装 ffmpeg:apt-get install --reinstall libflac8 libmp3lame0 libxvidcore4 ffmpeg

示例应用程序包中包含以下脚本

  • samples/ prepare_classification_test_video.sh:下载 Imagenet 测试图像并从中创建一个视频,以使用 TensorFlow Inception、ONNX DenseNet 等分类模型进行测试。

  • samples/ prepare_ds_triton_model_repo.sh:为 Triton Inference Server 准备模型存储库

    1. 为 SDK 提供的 Caffe 和 UFF 模型创建引擎文件。

    2. 下载 ONNX DenseNet、SSD Inception V2 Coco、Inception v3 的模型文件。

    有关上述模型的更多信息,请参考

  • samples/ prepare_ds_triton_tao_model_repo.sh:为 Triton Tao Inference Server 准备模型存储库

    1. 下载 Peoplenet Transformer、Peoplesemsegnet Shuffle、Facenet 的模型文件。

    2. 为下载的模型创建引擎文件。

  • uninstall.sh:用于清理之前的 DS 安装。