快捷键

SiLU

类 torch.nn.SiLU(inplace=False)[source][source] ¶

应用 Sigmoid 线性单元 (SiLU) 函数,逐元素。

SiLU 函数也称为 swish 函数。

silu(x)=xσ(x),where σ(x) is the logistic sigmoid.\text{silu}(x) = x * \sigma(x), \text{where } \sigma(x) \text{ is the logistic sigmoid.}

注意

请参阅高斯误差线性单元(GELUs),其中 SiLU(Sigmoid 线性单元)最初被提出,以及 Sigmoid 加权线性单元在强化学习中的神经网络函数逼近和 Swish:一种自门控激活函数,其中后来对 SiLU 进行了实验。

形状:
  • 输入: ()(*) ,其中 * 表示任意数量的维度。

  • 输出: ()(*) ,与输入具有相同的形状。

../_images/SiLU.png

示例:

>>> m = nn.SiLU()
>>> input = torch.randn(2)
>>> output = m(input)

© 版权所有 PyTorch 贡献者。

使用 Sphinx 构建,并使用 Read the Docs 提供的主题。

文档

PyTorch 的全面开发者文档

查看文档

教程

深入了解初学者和高级开发者的教程

查看教程

资源

查找开发资源并获得您的疑问解答

查看资源