SELU¶
- 类 torch.nn.SELU(inplace=False)[source][source] ¶
元素级应用 SELU 函数。
使用 和 。
警告
当使用
kaiming_normal
或kaiming_normal_
进行初始化时,为了获得自归一化神经网络,应使用nonlinearity='linear'
而不是nonlinearity='selu'
。更多信息请参阅torch.nn.init.calculate_gain()
。更多细节可以在论文《自归一化神经网络》中找到。
- 参数:
inplace(布尔值,可选)- 可选地进行原地操作。默认:
False
- 形状:
输入: ,其中 表示任意数量的维度。
输出: ,与输入具有相同的形状。
示例:
>>> m = nn.SELU() >>> input = torch.randn(2) >>> output = m(input)