快捷键

内存池 ¶

class torch.cuda.MemPool(*args, **kwargs)[source][source]

MemPool 表示缓存分配器中的内存池。目前,它只是 CUDACachingAllocator 中维护的池对象 ID。

参数:

allocator(torch._C._cuda_CUDAAllocator,可选)- 一个用于定义内存如何在池中分配的 torch._C._cuda_CUDAAllocator 对象。如果 allocatorNone (默认),内存分配将遵循 CUDACachingAllocator 的默认/当前配置。

属性 allocatorOptional[_cuda_CUDAAllocator] ¶

返回 MemPool 路由分配的分配器。

属性 idtuple[intint] ¶

返回此池的 ID,以两个整数的元组形式。

snapshot()[source][source]

返回所有设备上 CUDA 内存分配器池状态的快照。

理解此函数的输出需要熟悉内存分配器内部机制。

注意

更多关于 GPU 内存管理的详细信息,请参阅内存管理。

use_count()[source][source]

返回此池的引用计数。

返回类型:

int


© 版权所有 PyTorch 贡献者。

使用 Sphinx 构建,并使用 Read the Docs 提供的主题。

文档

PyTorch 的全面开发者文档

查看文档

教程

深入了解初学者和高级开发者的教程

查看教程

资源

查找开发资源并获得您的疑问解答

查看资源