TAO v5.5.0

从旧版 TLT 迁移到 TAO

NVIDIA Transfer Learning Toolkit 已更名为 NVIDIA TAO。与 TLT 3.0 和 TLT 2.0 相比,TAO 提供了多项新功能

  • 用于启动命令的统一命令行工具

  • 多 Docker 设置

  • 对话式 AI 应用程序

    • 支持训练 n-gram 语言模型

  • CV 功能

    • 新的训练应用程序

    • 新的特征提取器骨干网络

    • 新的专用模型

  • 与 DeepStream 和 Riva 推理平台集成

警告

当从 TLT 3.0 迁移到 TAO 时,如果您在 virtualenv 中先前安装了 nvidia-tlt 包,则需要在安装 nvidia-tao CLI 包之前卸载此包。您可以通过运行以下命令来执行此操作

复制
已复制!
            

pip3 uninstall nvidia-tlt pip3 install nvidia-tao

注意

使用 TAO,来自 TLT v2.0 和 TLT v3.0 的以下命令已被弃用,现在映射如下所示

版本比较

TAO 4.0

TAO 3.x (21.08, 21.11, 22.02, 22.05)

TLT v3.0

TLT v2.0

命令映射
  • tao <network> train
  • tao <network> prune
  • tao <network> evaluate
  • tao <network> export
  • tao <network> augment
  • tao <network> infer
  • tao <network> dataset_convert
  • tao-deploy <network> gen_trt_engine
  • tao-deploy <network> inference
  • tao-deploy <network> evaluate
  • tao <network> train
  • tao <network> prune
  • tao <network> evaluate
  • tao <network> export
  • tao <network> augment
  • tao <network> infer
  • tao <network> dataset_convert
  • tlt <network> train
  • tlt <network> prune
  • tlt <network> evaluate
  • tlt <network> export
  • tlt <network> augment
  • tlt <network> infer
  • tlt <network> dataset_convert
  • tlt-train
  • tlt-prune
  • tlt-evaluate
  • tlt-export
  • tlt-augment
  • tlt-infer
  • tlt-dataset-convert

下表显示了 TAO 4.0、TAO 3.x (21.08, 21.11, 22.02, 22.05)、TLT v3.0 和 TLT v2.0 之间的一些主要区别。

版本比较 TAO 4.0, 3.x TLT 3.0 TLT 2.0
接口差异 您可以通过 TAO 启动器 Python 包运行命令。 您可以通过 TLT 启动器 Python 包运行命令。 您在 Docker 内部与命令交互。
运行 TAO 的步骤
  1. 通过 pip3 安装启动器。
  2. 单独下载 NGC CLI。
  3. 配置 NGC CLI。
  4. 使用 tao --help 列出启动器支持的任务。
  5. 使用以下命令模式启动任务
  • tao <task> <subtask> <args>,其中 subtask 是按任务定义的。
  • task 可能跨越多个 Docker。

例如:要启动 detectnet_v2 训练,请使用以下命令

复制
已复制!
            

tao detectnet_v2 train <args>


  1. 使用 tao info 列出 TAO 任务的所有实例。
  2. 如果需要,使用 tao stop 中断作业。
  1. 通过 pip3 安装启动器。
  2. 单独下载 NGC CLI。
  3. 配置 NGC CLI。
  4. 使用 tlt --help 列出启动器支持的任务。
  5. 使用以下命令模式启动任务
  • tlt <task> <subtask> <args>,其中 subtask 是按任务定义的。
  • task 可能跨越多个 Docker。
  1. 使用 tlt list 列出 TLT 任务的所有实例。
  2. 如果需要,使用 tlt stop 中断作业。
  1. 拉取 TLT Docker。
  2. 使用所需的文件系统挂载实例化 Docker。
  3. 配置 NGC CLI。
  4. 运行通用 TLT 命令
    • tlt-train <task>
    • tlt-prune
    • tlt-evaluate <task>
    • tlt-infer <task>
    • tlt-export <task>
  5. 执行后退出 Docker。

SSD/DSSD/YOLOv3/RetinaNet 的 TLT 2.0 和 TLT 3.0 的数据准备略有不同。在 TLT 2.0 中,您必须生成 TFRecords(并可能调整图像大小)。这在 TLT v3.0 中不再需要,因为这些网络直接将原始图像和 KITTI 标签作为输入。如果需要调整图像大小,数据加载器会自动处理。

如果您已经为 TLT 2.0 训练准备了数据,则无需为 TAO 训练进一步处理它。相反,您只需要在 spec 文件中提供标签目录路径,训练应该可以为 TLT 3.0 及更高版本顺利运行。

上一篇 从 TAO 3.x 迁移到 TAO 4.0
下一篇 从 TAO 5.3.0 迁移到 TAO API
© 版权所有 2024, NVIDIA。 上次更新于 2024 年 10 月 15 日。