快捷键

PReLU

class torch.nn.PReLU(num_parameters=1, init=0.25, device=None, dtype=None)[source][source]

应用逐元素 PReLU 函数。

PReLU(x)=max(0,x)+amin(0,x)\text{PReLU}(x) = \max(0,x) + a * \min(0,x)

或者

PReLU(x)={x, if x0ax, otherwise \text{PReLU}(x) = \begin{cases} x, & \text{ if } x \ge 0 \\ ax, & \text{ otherwise } \end{cases}

aa 是一个可学习的参数。当不带参数调用 nn.PReLU() 时,它使用单个参数 aa 涵盖所有输入通道。如果使用 nn.PReLU(nChannels) 调用,则每个输入通道使用单独的 aa

注意

为了获得良好的性能,学习 aa 时不应使用权重衰减。

注意

通道维度是输入的第二个维度。当输入维度小于 2 时,则没有通道维度,通道数等于 1。

参数:
  • num_parameters (int) – 要学习的 aa 的数量。虽然它接受 int 类型的输入,但只有两个值是合法的:1 或输入通道的数量。默认:1

  • init (float) – aa 的初始值。默认:0.25

形状:
  • Input: ()( *) 其中 * 表示任意数量的附加维度。

  • 输出: ()(*) ,与输入具有相同的形状。

变量:

weight (Tensor) – 形状为 ( num_parameters ) 的可学习权重。

../_images/PReLU.png

示例:

>>> m = nn.PReLU()
>>> input = torch.randn(2)
>>> output = m(input)

© 版权所有 PyTorch 贡献者。

使用 Sphinx 构建,并使用 Read the Docs 提供的主题。

文档

PyTorch 的全面开发者文档

查看文档

教程

深入了解初学者和高级开发者的教程

查看教程

资源

查找开发资源并获得您的疑问解答

查看资源