• 文档 >
  • torch.nn 注意力 >
  • torch.nn.attention.sdpa_kernel
快捷键

torch.nn.attention.sdpa_kernel

torch.nn.attention.sdpa_kernel(backends, set_priority=False)[source][source]

用于选择用于缩放点积注意力的后端的上下文管理器。

警告

此函数处于测试阶段,可能会发生变化。

参数:
  • backends (联合[List[SDPBackend], SDPBackend]) – 用于缩放点积注意力的一个后端或后端列表。

  • set_priority_order (python:bool=False) – 是否将后端排序解释为优先级顺序。

示例:

from torch.nn.functional import scaled_dot_product_attention
from torch.nn.attention import SDPBackend, sdpa_kernel
# Only enable flash attention backend
with sdpa_kernel(SDPBackend.FLASH_ATTENTION):
    scaled_dot_product_attention(...)

# Enable the Math or Efficient attention backends
with sdpa_kernel([SDPBackend.MATH, SDPBackend.EFFICIENT_ATTENTION]):
    scaled_dot_product_attention(...)

此上下文管理器可用于选择用于缩放点积注意力的后端。退出上下文管理器后,将恢复标志的先前状态,启用所有后端。


© 版权所有 PyTorch 贡献者。

使用 Sphinx 构建,并使用 Read the Docs 提供的主题。

文档

PyTorch 的全面开发者文档

查看文档

教程

深入了解初学者和高级开发者的教程

查看教程

资源

查找开发资源并获得您的疑问解答

查看资源