快捷键

LeakyReLU

class torch.nn.LeakyReLU(negative_slope=0.01, inplace=False)[source][source]

逐元素应用 LeakyReLU 函数。

LeakyReLU(x)=max(0,x)+negative_slopemin(0,x)\text{LeakyReLU}(x) = \max(0, x) + \text{negative\_slope} * \min(0, x)

或者

LeakyReLU(x)={x, if x0negative_slope×x, otherwise \text{LeakyReLU}(x) = \begin{cases} x, & \text{ if } x \geq 0 \\ \text{negative\_slope} \times x, & \text{ otherwise } \end{cases}
参数:
  • negative_slope (浮点数) – 控制负斜率的倾斜角度(用于负输入值)。默认:1e-2

  • inplace(布尔值)- 可选地进行原地操作。默认: False

形状:
  • 输入: ()(*) 其中 * 表示任意数量的额外维度

  • 输出: ()(*) ,与输入具有相同的形状

../_images/LeakyReLU.png

示例:

>>> m = nn.LeakyReLU(0.1)
>>> input = torch.randn(2)
>>> output = m(input)

© 版权所有 PyTorch 贡献者。

使用 Sphinx 构建,并使用 Read the Docs 提供的主题。

文档

PyTorch 的全面开发者文档

查看文档

教程

深入了解初学者和高级开发者的教程

查看教程

资源

查找开发资源并获得您的疑问解答

查看资源