• 文档 >
  • torch.nn >
  • torch.nn.utils.clip_grad_value_
快捷键

torch.nn.utils.clip_grad_value_

torch.nn.utils.clip_grad_value_(parameters, clip_value, foreach=None)[source][source]

在指定值处剪切参数的可迭代序列的梯度。

梯度将在原地修改。

参数:
  • 参数(可迭代[Tensor]或 Tensor)- 一个 Tensor 的可迭代对象或单个 Tensor,其梯度将被归一化

  • clip_value (浮点数) – 梯度的最大允许值。梯度将被剪切到范围 [-clip_value,clip_value]\left[\text{-clip\_value}, \text{clip\_value}\right]

  • foreach (布尔值) – 使用基于 foreach 的更快实现。如果 None ,则使用 CUDA 和 CPU 原生张量的 foreach 实现并静默回退到其他设备类型的慢速实现。默认: None


© 版权所有 PyTorch 贡献者。

使用 Sphinx 构建,并使用 Read the Docs 提供的主题。

文档

PyTorch 的全面开发者文档

查看文档

教程

深入了解初学者和高级开发者的教程

查看教程

资源

查找开发资源并获得您的疑问解答

查看资源