torch.cuda.max_memory_reserved
- torch.cuda.max_memory_reserved(device=None)[source][source]
返回给定设备由缓存分配器管理的最大 GPU 内存(以字节为单位)。
默认情况下,这返回自程序开始以来的峰值缓存内存。可以使用
reset_peak_memory_stats()
来重置跟踪此指标的开始点。例如,这两个函数可以测量训练循环中每个迭代的峰值缓存内存量。- 参数:
device (torch.device 或 int,可选) – 选择设备。返回当前设备的统计信息,给定由
current_device()
,如果device
是None
(默认)。- 返回类型:
注意
更多关于 GPU 内存管理的详细信息,请参阅内存管理。