提交搜索
NVIDIA 开发者
博客
论坛
加入
提交搜索
NVIDIA 开发者
博客
论坛
加入
菜单
TAO v5.5.0
提交搜索
提交搜索
NVIDIA 文档中心
NVIDIA TAO
TAO v5.5.0
目标检测
目标检测
DetectNet_v2
目标检测的数据输入
预处理数据集
创建配置文件
训练模型
评估模型
对模型使用推理
剪枝模型
重新训练剪枝后的模型
导出模型
TensorRT 引擎生成、验证和 INT8 校准
部署到 DeepStream
FasterRCNN
准备输入数据结构
创建配置文件
训练模型
评估模型
对模型运行推理
剪枝模型
重新训练剪枝后的模型
导出模型
TensorRT 引擎生成、验证和 int8 校准
YOLOv3
准备输入数据结构
创建配置文件
生成 Anchor 形状
训练模型
评估模型
对 YOLOv3 模型运行推理
剪枝模型
重新训练剪枝后的模型
导出模型
TensorRT 引擎生成、验证和 int8 校准
部署到 DeepStream
YOLOv4
准备输入数据结构
创建配置文件
生成 anchor 形状
训练模型
评估模型
对 YOLOv4 模型运行推理
剪枝模型
重新训练剪枝后的模型
导出模型
TensorRT 引擎生成、验证和 int8 校准
部署到 DeepStream
YOLOv4-tiny
准备输入数据结构
创建配置文件
生成 anchor 形状
训练模型
评估模型
对 YOLOv4-tiny 模型运行推理
剪枝模型
重新训练剪枝后的模型
导出模型
TensorRT 引擎生成、验证和 int8 校准
部署到 DeepStream
SSD
目标检测的数据输入
预处理数据集
创建配置文件
训练模型
评估模型
对模型运行推理
剪枝模型
重新训练剪枝后的模型
导出模型
TensorRT 引擎生成、验证和 int8 校准
部署到 DeepStream
DSSD
目标检测的数据输入
预处理数据集
创建配置文件
训练模型
评估模型
对模型运行推理
剪枝模型
重新训练剪枝后的模型
导出模型
TensorRT 引擎生成、验证和 int8 校准
部署到 DeepStream
RetinaNet
目标检测的数据输入
预处理数据集
创建配置文件
训练模型
评估模型
对 RetinaNet 模型运行推理
剪枝模型
重新训练剪枝后的模型
导出模型
TensorRT 引擎生成、验证和 int8 校准
部署到 DeepStream
EfficientDet (TF1)
EfficientDet 的数据输入
预处理数据集
创建配置文件
训练模型
评估模型
使用 EfficientDet 模型运行推理
剪枝模型
重新训练剪枝后的模型
导出模型
TensorRT 引擎生成、验证和 int8 校准
部署到 DeepStream
上一篇
多任务图像分类
下一篇
DetectNet_v2
© 版权所有 2024, NVIDIA。
上次更新于 2024 年 10 月 15 日。
关闭
此处内容