SiLU¶
- 类 torch.nn.SiLU(inplace=False)[source][source] ¶
应用 Sigmoid 线性单元 (SiLU) 函数,逐元素。
SiLU 函数也称为 swish 函数。
注意
请参阅高斯误差线性单元(GELUs),其中 SiLU(Sigmoid 线性单元)最初被提出,以及 Sigmoid 加权线性单元在强化学习中的神经网络函数逼近和 Swish:一种自门控激活函数,其中后来对 SiLU 进行了实验。
- 形状:
输入: ,其中 表示任意数量的维度。
输出: ,与输入具有相同的形状。
示例:
>>> m = nn.SiLU() >>> input = torch.randn(2) >>> output = m(input)