硬件#
您可以为您的 AI Workbench 项目 指定硬件要求。
AI Workbench 项目支持以下硬件选项
- 所需 GPU 数量
启动此项目时要请求多少个 GPU。
- 共享内存
启动容器时应设置多少共享内存(以 MB 为单位)(即 /dev/shm 的大小)
保留 GPU#
要在项目中使用 GPU,您必须将“所需 GPU 数量”设置为 1-8 之间的值。然后,当您的项目容器启动时,AI Workbench 会检查其主机上可用 GPU 的内部引用。如果有足够的 GPU 可用,它们将被“保留”并显式传递到容器中。如果可用 GPU 不足,您有以下几个选项
减少请求的 GPU 数量
停止另一个项目以释放 GPU
在没有 GPU 的情况下启动容器
当您的项目停止时,任何保留的 GPU 都会被释放,以供另一个项目使用。
重要提示
在 Windows 上,目前由于驱动程序限制,所有 GPU 都会传递到所有启用 GPU 的项目中。这意味着如果您有一个请求 2 个 GPU 的项目,并且您在具有 4 个 GPU 的机器上运行它,您将在容器内看到所有 4 个 GPU。
默认设置#
创建新项目时,如果基础环境中有 CUDA,AI Workbench 会将所需的 GPU 数量设置为 1,并将共享内存设置为 1GB。您可以自由修改这些值以满足您的需求。如果基础环境中没有 CUDA,则这些值为 0。