torch.nn.utils.clip_grad_value_¶
- torch.nn.utils.clip_grad_value_(parameters, clip_value, foreach=None)[source][source]¶
在指定值处剪切参数的可迭代序列的梯度。
梯度将在原地修改。
- 参数:
参数(可迭代[Tensor]或 Tensor)- 一个 Tensor 的可迭代对象或单个 Tensor,其梯度将被归一化
clip_value (浮点数) – 梯度的最大允许值。梯度将被剪切到范围
foreach (布尔值) – 使用基于 foreach 的更快实现。如果
None
,则使用 CUDA 和 CPU 原生张量的 foreach 实现并静默回退到其他设备类型的慢速实现。默认:None