快捷键

HuberLoss

class torch.nn.HuberLoss(reduction='mean', delta=1.0)[source][source]

创建一个使用平方项的损失函数,如果元素级绝对误差低于 delta,则使用 delta 缩放的 L1 项。这种损失函数结合了 L1LossMSELoss 的优点;delta 缩放的 L1 区域使得损失对异常值不如 MSELoss 敏感,而 L2 区域在 0 附近提供平滑性。有关 Huber 损失更多信息,请参阅 Huber 损失。

对于批次大小为 NN 的情况,未归一化的损失可以描述为:

(x,y)=L={l1,...,lN}T\ell(x, y) = L = \{l_1, ..., l_N\}^T

替换为

ln={0.5(xnyn)2,if xnyn<deltadelta(xnyn0.5delta),otherwise l_n = \begin{cases} 0.5 (x_n - y_n)^2, & \text{if } |x_n - y_n| < delta \\ delta * (|x_n - y_n| - 0.5 * delta), & \text{otherwise } \end{cases}

如果归一化不是 none,则:

(x,y)={mean(L),if reduction=‘mean’;sum(L),if reduction=‘sum’.\ell(x, y) = \begin{cases} \operatorname{mean}(L), & \text{if reduction} = \text{`mean';}\\ \operatorname{sum}(L), & \text{if reduction} = \text{`sum'.} \end{cases}

注意

当 delta 设置为 1 时,此损失与 SmoothL1Loss 等价。一般来说,此损失与 SmoothL1Loss 相比,相差 delta(即 Smooth L1 中的 beta)倍。参见 SmoothL1Loss 以了解两种损失在行为上的差异讨论。

参数:
  • reduction(字符串,可选)- 指定应用于输出的归一化方式: 'none' | 'mean' | 'sum''none' :不应用归一化, 'mean' :输出总和将被除以输出中的元素数量, 'sum' :输出将被求和。默认: 'mean'

  • delta(浮点数,可选)- 指定在 delta 缩放 L1 和 L2 损失之间切换的阈值。该值必须是正数。默认:1.0

形状:
  • 输入: ()(*) 其中 * 表示任意数量的维度。

  • 目标: ()(*) ,与输入形状相同。

  • 输出:标量。如果 reduction'none' ,则 ()(*) ,与输入具有相同的形状。


© 版权所有 PyTorch 贡献者。

使用 Sphinx 构建,并使用 Read the Docs 提供的主题。

文档

PyTorch 的全面开发者文档

查看文档

教程

深入了解初学者和高级开发者的教程

查看教程

资源

查找开发资源并获得您的疑问解答

查看资源