torch.cuda.max_memory_allocated¶
- torch.cuda.max_memory_allocated(device=None)[source][source]¶
返回给定设备上张量占用的最大 GPU 内存(以字节为单位)。
默认情况下,这返回程序开始以来的峰值分配内存。
reset_peak_memory_stats()
可以用来重置跟踪此指标的开始点。例如,这两个函数可以测量训练循环中每次迭代的峰值分配内存使用情况。- 参数:
device (torch.device 或 int,可选) – 选择设备。返回当前设备的统计信息,给定由
current_device()
,如果device
是None
(默认)。- 返回类型:
注意
更多关于 GPU 内存管理的详细信息,请参阅内存管理。