torch.nn.functional.silu
-
torch.nn.functional.silu(input, inplace=False)[source][source]
应用逐元素的 Sigmoid 线性单元(SiLU)函数。
SiLU 函数也称为 swish 函数。
silu(x)=x∗σ(x),where σ(x) is the logistic sigmoid.
注意
请参阅高斯误差线性单元(GELUs),其中 SiLU(Sigmoid 线性单元)最初被提出,以及 Sigmoid 加权线性单元在强化学习中的神经网络函数逼近和 Swish:一种自门控激活函数,其中后来对 SiLU 进行了实验。
更多详情请见 SiLU
。
- 返回类型:
张量