cuquantum.cutensornet.compute_gradients_backward¶
- cuquantum.cutensornet.compute_gradients_backward(intptr_t handle, intptr_t plan, raw_data_in, intptr_t output_gradient, gradients, int32_t accumulate_output, intptr_t work_desc, intptr_t stream)[源代码]¶
计算网络关于需要梯度的输入张量的梯度。网络必须已收缩并加载到
work_descCACHE 中。仅对具有单一切片且没有单例模式的网络进行操作。- 参数
handle (intptr_t) – 持有 cuTensorNet 库上下文的不透明句柄。
plan (intptr_t) – 编码张量网络收缩的执行(参见
create_contraction_plan()和contraction_autotune())。一些内部元数据可能会在收缩后更新。raw_data_in (object) –
N 个指针的数组(N 是在
create_network_descriptor()中指定的输入张量的数量):raw_data_in[i]指向与第 i 个输入张量关联的数据(在设备内存中)。它可以是output_gradient (intptr_t) – 输出张量的梯度(在设备内存中)。必须具有与张量网络的输出张量相同的内存布局(步幅)。
gradients (object) –
N 个指针的数组:
gradients[i]指向与设备内存中第 i 个输入张量关联的梯度数据。将gradients[i]设置为 null 将跳过计算第 i 个输入张量的梯度。生成的梯度数据具有与其对应的输入张量相同的内存布局(步幅)。它可以是accumulate_output (int32_t) – 如果为 0,则将梯度结果写入
gradients;否则将结果累积到gradients中。work_desc (intptr_t) – 描述工作区的不透明结构。提供的
CUTENSORNET_WORKSPACE_SCRATCH工作区必须是valid(工作区指针必须是设备可访问的,请参见cutensornetMemspace_t,并且工作区大小必须等于或大于所需的最小值)。参见workspace_compute_contraction_sizes()、workspace_get_memory_size()和workspace_set_memory()。提供的CUTENSORNET_WORKSPACE_CACHE工作区必须是valid(工作区指针必须是设备可访问的,请参见cutensornetMemspace_t),并且包含来自相应contract_slices()调用的缓存中间张量。如果设置了设备内存处理程序,并且work_desc设置为 null,或者work_desc中任一工作区类型的内存指针设置为 null,则对于contract_slices()和compute_gradients_backward()的调用,内存将从内存池中提取。有关详细信息,请参见contract_slices()。stream (intptr_t) – 执行计算的 CUDA 流。