快捷键

torch.nn.functional.conv1d

torch.nn.functional.conv1d(input, weight, bias=None, stride=1, padding=0, dilation=1, groups=1) Tensor

在输入信号由多个输入平面组成的情况下,应用 1D 卷积。

此运算符支持 TensorFloat32。

详细信息和输出形状请见 Conv1d

注意

在某些情况下,当在 CUDA 设备上给定张量并使用 CuDNN 时,此运算符可能会选择非确定性算法以提高性能。如果这不可取,您可以尝试通过设置 torch.backends.cudnn.deterministic = True 来使操作确定性(可能以性能成本为代价)。有关更多信息,请参阅可重现性。

注意

此操作支持复杂数据类型,即 complex32, complex64, complex128

参数:
  • input – 输入张量,形状为 (minibatch,in_channels,iW)(\text{minibatch} , \text{in\_channels} , iW)

  • 重量 – 形状为 (out_channels,in_channelsgroups,kW)(\text{out\_channels} , \frac{\text{in\_channels}}{\text{groups}} , kW) 的过滤器

  • 偏置 – 可选的偏置,形状为 (out_channels)(\text{out\_channels}) 。默认: None

  • 步长 – 卷积核的步长。可以是单个数字或一个元素元组(sW,)。默认:1

  • 填充 –

    输入两侧的隐式填充。可以是字符串 {‘valid’,‘same’},单个数字或一个元素元组(padW,)。默认:0 padding='valid' 与无填充相同。 padding='same' 填充输入,使输出与输入具有相同的形状。然而,此模式不支持除 1 以外的任何步长值。

    警告

    对于 padding='same' ,如果 weight 是偶数长度且 dilation 在任何维度上是奇数,则可能需要内部执行完整的 pad() 操作。降低性能。

  • 扩展率 - 卷积核元素之间的间距。可以是单个数字或一个元素元组(dW,)。默认:1

  • 分组 - 将输入分成组, in_channels\text{in\_channels} 应该能被组数整除。默认:1

示例:

>>> inputs = torch.randn(33, 16, 30)
>>> filters = torch.randn(20, 16, 5)
>>> F.conv1d(inputs, filters)

© 版权所有 PyTorch 贡献者。

使用 Sphinx 构建,并使用 Read the Docs 提供的主题。

文档

PyTorch 的全面开发者文档

查看文档

教程

深入了解初学者和高级开发者的教程

查看教程

资源

查找开发资源并获得您的疑问解答

查看资源