快捷键

torch.nn.functional.softmax

torch.nn.functional.softmax(input, dim=None, _stacklevel=3, dtype=None)[source][source]

应用 softmax 函数。

Softmax 定义为:

Softmax(xi)=exp(xi)jexp(xj)\text{Softmax}(x_{i}) = \frac{\exp(x_i)}{\sum_j \exp(x_j)}

它应用于沿 dim 的所有切片,并将它们重新缩放,使得元素位于[0, 1]的范围内,并且总和为 1。

更多详情请见 Softmax

参数:
  • 输入(张量)- 输入

  • dim(整数)- softmax 将计算的维度。

  • dtype( torch.dtype ,可选)- 返回张量的期望数据类型。如果指定,则在执行操作之前将输入张量转换为 dtype 。这有助于防止数据类型溢出。默认:None。

返回类型:

张量

注意

这个函数不能直接与 NLLLoss 一起使用,因为 NLLLoss 期望在 Softmax 和自身之间计算 Log。请使用 log_softmax(它更快,并且具有更好的数值特性)。


© 版权所有 PyTorch 贡献者。

使用 Sphinx 构建,并使用 Read the Docs 提供的主题。

文档

PyTorch 的全面开发者文档

查看文档

教程

深入了解初学者和高级开发者的教程

查看教程

资源

查找开发资源并获得您的疑问解答

查看资源