快捷键

Softplus ¬

class torch.nn.Softplus(β=1.0, threshold=20.0)[来源][来源] ¬

元素级应用 Softplus 函数。

Softplus(x)=1βlog(1+exp(βx))\text{Softplus}(x) = \frac{1}{\beta} * \log(1 + \exp(\beta * x))

SoftPlus 是 ReLU 函数的平滑近似,可以用来约束机器的输出始终为正。

为了数值稳定性,实现会回退到线性函数当 input×β>thresholdinput \times \beta > threshold

参数:
  • beta (浮点数) - Softplus 公式的 β\beta 值。默认:1

  • threshold (浮点数) - 超过此值的值将回退到线性函数。默认:20

形状:
  • 输入: ()(*) ,其中 * 表示任意数量的维度。

  • 输出: ()(*) ,与输入具有相同的形状。

../_images/Softplus.png

示例:

>>> m = nn.Softplus()
>>> input = torch.randn(2)
>>> output = m(input)

© 版权所有 PyTorch 贡献者。

使用 Sphinx 构建,并使用 Read the Docs 提供的主题。

文档

PyTorch 的全面开发者文档

查看文档

教程

深入了解初学者和高级开发者的教程

查看教程

资源

查找开发资源并获得您的疑问解答

查看资源