运行示例工作负载#

使用 Docker 运行示例工作负载#

在您安装并配置工具包并安装 NVIDIA GPU 驱动程序后,您可以通过运行示例工作负载来验证您的安装。

  • 运行示例 CUDA 容器

    sudo docker run --rm --runtime=nvidia --gpus all ubuntu nvidia-smi
    

    您的输出应类似于以下输出

    +-----------------------------------------------------------------------------+
    | NVIDIA-SMI 535.86.10    Driver Version: 535.86.10    CUDA Version: 12.2     |
    |-------------------------------+----------------------+----------------------+
    | GPU  Name        Persistence-M| Bus-Id        Disp.A | Volatile Uncorr. ECC |
    | Fan  Temp  Perf  Pwr:Usage/Cap|         Memory-Usage | GPU-Util  Compute M. |
    |                               |                      |               MIG M. |
    |===============================+======================+======================|
    |   0  Tesla T4            On   | 00000000:00:1E.0 Off |                    0 |
    | N/A   34C    P8     9W /  70W |      0MiB / 15109MiB |      0%      Default |
    |                               |                      |                  N/A |
    +-------------------------------+----------------------+----------------------+
    
    +-----------------------------------------------------------------------------+
    | Processes:                                                                  |
    |  GPU   GI   CI        PID   Type   Process name                  GPU Memory |
    |        ID   ID                                                   Usage      |
    |=============================================================================|
    |  No running processes found                                                 |
    +-----------------------------------------------------------------------------+
    

使用 Podman 运行示例工作负载#

在您安装并配置工具包(包括 生成 CDI 规范)并安装 NVIDIA GPU 驱动程序后,您可以通过运行示例工作负载来验证您的安装。

  • 运行示例 CUDA 容器

    podman run --rm --security-opt=label=disable \
       --device=nvidia.com/gpu=all \
       ubuntu nvidia-smi
    

    您的输出应类似于以下输出

    +-----------------------------------------------------------------------------+
    | NVIDIA-SMI 535.86.10    Driver Version: 535.86.10    CUDA Version: 12.2     |
    |-------------------------------+----------------------+----------------------+
    | GPU  Name        Persistence-M| Bus-Id        Disp.A | Volatile Uncorr. ECC |
    | Fan  Temp  Perf  Pwr:Usage/Cap|         Memory-Usage | GPU-Util  Compute M. |
    |                               |                      |               MIG M. |
    |===============================+======================+======================|
    |   0  Tesla T4            On   | 00000000:00:1E.0 Off |                    0 |
    | N/A   34C    P8     9W /  70W |      0MiB / 15109MiB |      0%      Default |
    |                               |                      |                  N/A |
    +-------------------------------+----------------------+----------------------+
    
    +-----------------------------------------------------------------------------+
    | Processes:                                                                  |
    |  GPU   GI   CI        PID   Type   Process name                  GPU Memory |
    |        ID   ID                                                   Usage      |
    |=============================================================================|
    |  No running processes found                                                 |
    +-----------------------------------------------------------------------------+
    

使用 containerd 或 CRI-O 运行示例工作负载#

这些运行时在 Kubernetes 中比在桌面计算中更常见。 有关更多信息,请参阅 NVIDIA GPU Operator 文档中的 关于 NVIDIA GPU Operator