运行器
模块: polygraphy.backend.pluginref
- class PluginRefRunner(graph, name=None)[source]
基类:
BaseRunner
使用自定义 CPU 参考实现运行推理
- 参数:
graph (Union[onnx_graphsurgeon.Graph, Callable() -> onnx_graphsurgeon.Graph]) – ONNX-GraphSurgeon 图或返回该图的可调用对象。
name (str) – 用于此运行器的易于理解的名称前缀。运行器计数和时间戳将附加到此前缀。
- __enter__()
激活运行器以进行推理。例如,这可能涉及分配 CPU 或 GPU 内存。
- __exit__(exc_type, exc_value, traceback)
停用运行器。例如,这可能涉及释放 CPU 或 GPU 内存。
- activate()
激活运行器以进行推理。例如,这可能涉及分配 CPU 或 GPU 内存。
通常,您应该使用上下文管理器而不是手动激活和停用。例如
with RunnerType(...) as runner: runner.infer(...)
- deactivate()
停用运行器。例如,这可能涉及释放 CPU 或 GPU 内存。
通常,您应该使用上下文管理器而不是手动激活和停用。例如
with RunnerType(...) as runner: runner.infer(...)
- get_input_metadata(use_numpy_dtypes=None)
返回关于模型输入的信息。此处的形状可能包含动态维度,以
None
表示。必须仅在activate()
之后和deactivate()
之前调用。- 参数:
use_numpy_dtypes (bool) – [已弃用] 是否返回 NumPy 数据类型而不是 Polygraphy
DataType
。提供此选项是为了保持向后兼容性。将来,此参数将被删除,并且始终返回 PolygraphyDataType
。这些可以通过调用 numpy() 方法转换为 NumPy 数据类型。默认为 True。- 返回:
输入名称、形状和数据类型。
- 返回类型:
- infer(feed_dict, check_inputs=True, *args, **kwargs)
使用提供的 feed_dict 运行推理。
必须仅在
activate()
之后和deactivate()
之前调用。注意:某些运行器可能在 infer() 中接受其他参数。有关这些参数的详细信息,请参阅其 infer_impl() 方法的文档。
- 参数:
feed_dict (OrderedDict[str, numpy.ndarray]) – 输入张量名称到相应输入 NumPy 数组的映射。
check_inputs (bool) – 是否检查提供的
feed_dict
是否包含具有预期数据类型和形状的预期输入。禁用此项可能会提高性能。默认为 True。
- inference_time
运行推理所需的时间,以秒为单位。
- 类型:
float
- 返回:
输出张量名称到其对应 NumPy 数组的映射。
重要提示:运行器可能会重用这些输出缓冲区。因此,如果您需要保存来自多次推理的输出,则应使用
copy.deepcopy(outputs)
复制一份。- 返回类型:
OrderedDict[str, numpy.ndarray]
- last_inference_time()
返回上次调用
infer()
期间所需的总推理时间,以秒为单位。必须仅在
activate()
之后和deactivate()
之前调用。- 返回:
时间,以秒为单位;如果运行器未测量运行时,则为 None。
- 返回类型:
float
- is_active
指示此运行器是否已激活,无论是通过上下文管理器还是通过调用
activate()
。- 类型:
bool