• 文档 >
  • torch.nn >
  • torch.nn.utils.clip_grads_with_norm_
快捷键

torch.nn.utils.clip_grads_with_norm_

torch.nn.utils.clip_grads_with_norm_(parameters, max_norm, total_norm, foreach=None)[source]

根据预计算的总体范数和期望的最大范数,缩放参数迭代器的梯度。

梯度将通过以下计算进行缩放

grad=gradmax_normtotal_norm+1e6grad = grad * \frac{max\_norm}{total\_norm + 1e-6}

梯度将在原地修改。

此函数与 torch.nn.utils.clip_grad_norm_() 等价,具有预计算的范数总和。

参数:
  • 参数(可迭代[Tensor]或 Tensor)- 一个 Tensor 的可迭代对象或单个 Tensor,其梯度将被归一化

  • max_norm (浮点数) – 梯度的最大范数

  • total_norm (张量) – 用于剪切的梯度总范数

  • foreach (布尔值) – 使用基于 foreach 的快速实现。如果 None ,则使用 CUDA 和 CPU 原生张量的 foreach 实现并静默回退到慢速实现。默认: None

返回值:

无。

返回类型:

无。


© 版权所有 PyTorch 贡献者。

使用 Sphinx 构建,并使用 Read the Docs 提供的主题。

文档

PyTorch 的全面开发者文档

查看文档

教程

深入了解初学者和高级开发者的教程

查看教程

资源

查找开发资源并获得您的疑问解答

查看资源