快捷键

MaxPool1d ¬

class torch.nn.MaxPool1d(核大小, 步长=None, 填充=0, 扩展=1, 返回索引=False, 向上取整模式=False)[源代码][源代码] ¬

在由多个输入平面组成的输入信号上应用 1D 最大池化。

在最简单的情况下,输入大小为 (N,C,L)(N, C, L) ,输出大小为 (N,C,Lout)(N, C, L_{out}) 的层的输出值可以精确描述为:

out(Ni,Cj,k)=maxm=0,,kernel_size1input(Ni,Cj,stride×k+m)out(N_i, C_j, k) = \max_{m=0, \ldots, \text{kernel\_size} - 1} input(N_i, C_j, stride \times k + m)

如果 padding 非零,则输入将在两侧隐式填充负无穷大,填充 padding 个点。 dilation 是滑动窗口内元素之间的步长。此链接有一个关于池化参数的精彩可视化。

注意

当 ceil_mode=True 时,滑动窗口允许在左填充或输入内开始时超出边界。如果滑动窗口将开始于右填充区域,则忽略。

参数:
  • 核心大小(Union[int, tuple[int]])- 滑动窗口的大小,必须大于 0。

  • 步长(Union[int, tuple[int]])- 滑动窗口的步长,必须大于 0。默认值为 kernel_size

  • 填充(Union[int, tuple[int]])- 在两侧添加的隐式负无穷大填充,必须大于等于 0 且小于等于核心大小的一半。

  • 扩展(Union[int, tuple[int]])- 滑动窗口内元素之间的步长,必须大于 0。

  • return_indices (bool) – 如果 True ,将返回 argmax 及其最大值。对于 torch.nn.MaxUnpool1d 很有用

  • ceil_mode (bool) – 如果 True ,将使用向上取整而不是向下取整来计算输出形状。这确保了输入张量中的每个元素都被滑动窗口覆盖

形状:
  • 输入: (N,C,Lin)(N, C, L_{in})(C,Lin)(C, L_{in})

  • 输出: (N,C,Lout)(N, C, L_{out})(C,Lout)(C, L_{out}) ,其中

    Lout=Lin+2×paddingdilation×(kernel_size1)1stride+1L_{out} = \left\lfloor \frac{L_{in} + 2 \times \text{padding} - \text{dilation} \times (\text{kernel\_size} - 1) - 1}{\text{stride}} + 1\right\rfloor

示例:

>>> # pool of size=3, stride=2
>>> m = nn.MaxPool1d(3, stride=2)
>>> input = torch.randn(20, 16, 50)
>>> output = m(input)

© 版权所有 PyTorch 贡献者。

使用 Sphinx 构建,并使用 Read the Docs 提供的主题。

文档

PyTorch 的全面开发者文档

查看文档

教程

深入了解初学者和高级开发者的教程

查看教程

资源

查找开发资源并获得您的疑问解答

查看资源