torch.load¶
- torch.load(f, map_location=None, pickle_module=pickle, *, weights_only=True, mmap=None, **pickle_load_args)[source][source]¶
从文件中加载使用
torch.save()
保存的对象。torch.load()
使用 Python 的反序列化功能,但特别处理了存储,这些存储是张量的基础。它们首先在 CPU 上反序列化,然后移动到保存时的设备。如果失败(例如,因为运行时系统没有某些设备),则会引发异常。但是,可以使用map_location
参数动态地将存储重新映射到一组替代设备。如果
map_location
是一个可调用对象,它将为每个序列化的存储调用一次,传递两个参数:存储和位置。存储参数将是存储的初始反序列化,位于 CPU 上。每个序列化的存储都有一个与之关联的位置标签,该标签标识了它被保存的设备,这个标签是传递给map_location
的第二个参数。内置的位置标签是'cpu'
(用于 CPU 张量)和'cuda:device_id'
(例如'cuda:2'
)(用于 CUDA 张量)。map_location
应返回None
或一个存储。如果map_location
返回一个存储,它将被用作最终反序列化对象,已经移动到正确的设备。否则,torch.load()
将回退到默认行为,就像没有指定map_location
一样。如果
map_location
是一个torch.device
对象或包含设备标签的字符串,它表示所有张量应该加载的位置。否则,如果
map_location
是一个字典,它将用于将文件中出现的(键)位置标签重映射到指定存储放置位置的(值)。用户扩展可以使用
torch.serialization.register_package()
注册自己的位置标签和标记以及反序列化方法。- 参数:
f (Union[str, PathLike[str], IO[bytes]]) – 一个文件对象(必须实现
read()
,readline()
,tell()
和seek()
),或包含文件名的字符串或 os.PathLike 对象map_location (Optional[Union[Callable[[Storage, str], Storage], device, str, dict[str, str]]]) – 一个函数,
torch.device
,字符串或指定存储位置重映射的字典pickle_module (Any) – 用于反序列化元数据和对象的模块(必须与用于序列化文件的
pickle_module
匹配)weights_only (Optional[bool]) – 表示反序列化器是否仅加载张量、原始类型、字典以及通过
torch.serialization.add_safe_globals()
添加的任何类型。有关详细信息,请参阅 torch.load with weights_only=True。mmap(可选[bool])- 表示是否应该以 mmap 方式加载文件而不是将所有存储加载到内存中。通常,文件中的张量存储首先从磁盘移动到 CPU 内存,然后移动到保存时标记的位置或由
map_location
指定的位置。如果最终位置是 CPU,则此第二步为空操作。当设置mmap
标志时,在第一步中,不是将张量存储从磁盘复制到 CPU 内存,而是直接对f
进行 mmap。pickle_load_args(Any)- (仅 Python 3)传递给
pickle_module.load()
和pickle_module.Unpickler()
的可选关键字参数,例如errors=...
。
- 返回类型:
警告
torch.load()
除非将 weights_only 参数设置为 True,否则会隐式使用pickle
模块,这已知是不安全的。可以构造恶意的 pickle 数据,在反序列化过程中执行任意代码。切勿以不安全模式加载可能来自不受信任来源的数据,或者可能被篡改的数据。仅加载您信任的数据。注意
当您对一个包含 GPU 张量的文件调用
torch.load()
时,默认情况下这些张量将被加载到 GPU。您可以通过调用torch.load(.., map_location='cpu')
然后load_state_dict()
来避免在加载模型检查点时 GPU RAM 激增。注意
默认情况下,我们将字节字符串解码为
utf-8
。这是为了避免在 Python 3 中加载由 Python 2 保存的文件时常见的错误情况UnicodeDecodeError: 'ascii' codec can't decode byte 0x...
。如果此默认设置不正确,您可以使用额外的encoding
关键字参数来指定如何加载这些对象,例如encoding='latin1'
使用latin1
编码将它们解码为字符串,或者encoding='bytes'
将它们保留为字节数组,稍后可以byte_array.decode(...)
进行解码。示例
>>> torch.load("tensors.pt", weights_only=True) # Load all tensors onto the CPU >>> torch.load( ... "tensors.pt", ... map_location=torch.device("cpu"), ... weights_only=True, ... ) # Load all tensors onto the CPU, using a function >>> torch.load( ... "tensors.pt", ... map_location=lambda storage, loc: storage, ... weights_only=True, ... ) # Load all tensors onto GPU 1 >>> torch.load( ... "tensors.pt", ... map_location=lambda storage, loc: storage.cuda(1), ... weights_only=True, ... ) # type: ignore[attr-defined] # Map tensors from GPU 1 to GPU 0 >>> torch.load( ... "tensors.pt", ... map_location={"cuda:1": "cuda:0"}, ... weights_only=True, ... ) # Load tensor from io.BytesIO object # Loading from a buffer setting weights_only=False, warning this can be unsafe >>> with open("tensor.pt", "rb") as f: ... buffer = io.BytesIO(f.read()) >>> torch.load(buffer, weights_only=False) # Load a module with 'ascii' encoding for unpickling # Loading from a module setting weights_only=False, warning this can be unsafe >>> torch.load("module.pt", encoding="ascii", weights_only=False)