模块
PyTorch 使用模块来表示神经网络。模块包括:
状态计算的基本构建块。PyTorch 提供了一个强大的模块库,并简化了自定义模块的定义,使得构建复杂的多层神经网络变得容易。
与 PyTorch 的 autograd 系统紧密集成。模块使得为 PyTorch 的优化器指定可学习参数变得简单,以便更新。
易于使用和转换。模块可以直接保存和恢复,在 CPU / GPU / TPU 设备之间传输,剪枝、量化等操作。
这份笔记描述了模块,并面向所有 PyTorch 用户。由于模块对 PyTorch 来说非常基础,本笔记中许多主题在其他笔记或教程中进行了详细阐述,同时这里也提供了许多相关文档的链接。
一个简单的自定义模块
要开始,让我们看看 PyTorch 的 Linear
模块的一个更简单、自定义的版本。此模块对其输入应用仿射变换。
import torch
from torch import nn
class MyLinear(nn.Module):
def __init__(self, in_features, out_features):
super().__init__()
self.weight = nn.Parameter(torch.randn(in_features, out_features))
self.bias = nn.Parameter(torch.randn(out_features))
def forward(self, input):
return (input @ self.weight) + self.bias
此简单模块具有以下模块的基本特征:
它继承自基类 Module。所有模块都应该继承自
Module
以便与其他模块进行组合。它定义了一些用于计算的“状态”。在这里,状态由随机初始化的
weight
和bias
张量组成,这些张量定义了仿射变换。因为这些都被定义为Parameter
,所以它们被注册到模块中,并将自动在调用parameters()
时跟踪和返回。参数可以被认为是模块计算中的“可学习”方面(稍后会有更多介绍)。请注意,模块不一定要有状态,也可以是无状态的。它定义了一个 forward() 函数,用于执行计算。对于这个仿射变换模块,输入与
weight
参数进行矩阵相乘(使用@
简写符号),然后加上bias
参数以产生输出。更一般地,模块的forward()
实现可以执行涉及任意数量输入和输出的任意计算。
这个简单的模块演示了模块如何将状态和计算组合在一起。可以构造并调用此模块的实例:
m = MyLinear(4, 3)
sample_input = torch.randn(4)
m(sample_input)
: tensor([-0.3037, -1.0413, -4.2057], grad_fn=<AddBackward0>)
注意模块本身是可调用的,调用它将调用其 forward()
函数。这个名称与“正向传播”和“反向传播”的概念相关,这些概念适用于每个模块。“正向传播”负责将模块表示的计算应用于给定的输入(如上所示)。“反向传播”计算模块输出的梯度相对于其输入,这些梯度可以用于通过梯度下降方法“训练”参数。PyTorch 的 autograd 系统会自动处理这个反向传播计算,因此不需要为每个模块手动实现一个 backward()
函数。通过连续的正向/反向传播训练模块参数的过程在《使用模块的神经网络训练》中有详细说明。
可以通过调用 parameters()
或 named_parameters()
来遍历模块注册的所有参数,其中后者包括每个参数的名称:
for parameter in m.named_parameters():
print(parameter)
: ('weight', Parameter containing:
tensor([[ 1.0597, 1.1796, 0.8247],
[-0.5080, -1.2635, -1.1045],
[ 0.0593, 0.2469, -1.4299],
[-0.4926, -0.5457, 0.4793]], requires_grad=True))
('bias', Parameter containing:
tensor([ 0.3634, 0.2015, -0.8525], requires_grad=True))
通常情况下,模块注册的参数是模块计算方面的“学习”内容。本笔记的后续部分将展示如何使用 PyTorch 的优化器之一来更新这些参数。但在那之前,我们先来探讨一下模块如何相互组合。
模块作为构建块
模块可以包含其他模块,这使得它们成为开发更复杂功能的有用构建块。实现这一点的最简单方法是使用 Sequential
模块。它允许我们将多个模块链接在一起:
net = nn.Sequential(
MyLinear(4, 3),
nn.ReLU(),
MyLinear(3, 1)
)
sample_input = torch.randn(4)
net(sample_input)
: tensor([-0.6749], grad_fn=<AddBackward0>)
注意 Sequential
会自动将第一个 MyLinear
模块的输出作为 ReLU
模块的输入,并将该模块的输出作为第二个 MyLinear
模块的输入。如图所示,它限于按顺序链接具有单个输入和输出的模块。
通常情况下,建议为任何超出最简单用例的内容定义一个自定义模块,因为这可以提供对子模块如何用于模块计算的完全灵活性。
例如,以下是一个作为自定义模块实现的简单神经网络:
import torch.nn.functional as F
class Net(nn.Module):
def __init__(self):
super().__init__()
self.l0 = MyLinear(4, 3)
self.l1 = MyLinear(3, 1)
def forward(self, x):
x = self.l0(x)
x = F.relu(x)
x = self.l1(x)
return x
此模块由两个“子模块”或“子组件”( l0
和 l1
)组成,它们定义了神经网络的层,并在模块的 forward()
方法中进行计算。可以通过调用 children()
或 named_children()
来迭代模块的直接子模块:
net = Net()
for child in net.named_children():
print(child)
: ('l0', MyLinear())
('l1', MyLinear())
要比仅迭代直接子模块更深入, modules()
和 named_modules()
将递归地迭代模块及其子模块:
class BigNet(nn.Module):
def __init__(self):
super().__init__()
self.l1 = MyLinear(5, 4)
self.net = Net()
def forward(self, x):
return self.net(self.l1(x))
big_net = BigNet()
for module in big_net.named_modules():
print(module)
: ('', BigNet(
(l1): MyLinear()
(net): Net(
(l0): MyLinear()
(l1): MyLinear()
)
))
('l1', MyLinear())
('net', Net(
(l0): MyLinear()
(l1): MyLinear()
))
('net.l0', MyLinear())
('net.l1', MyLinear())
有时,模块需要动态定义子模块。 ModuleList
和 ModuleDict
模块在这里非常有用;它们可以从列表或字典中注册子模块:
class DynamicNet(nn.Module):
def __init__(self, num_layers):
super().__init__()
self.linears = nn.ModuleList(
[MyLinear(4, 4) for _ in range(num_layers)])
self.activations = nn.ModuleDict({
'relu': nn.ReLU(),
'lrelu': nn.LeakyReLU()
})
self.final = MyLinear(4, 1)
def forward(self, x, act):
for linear in self.linears:
x = linear(x)
x = self.activations[act](x)
x = self.final(x)
return x
dynamic_net = DynamicNet(3)
sample_input = torch.randn(4)
output = dynamic_net(sample_input, 'relu')
对于任何给定的模块,其参数包括其直接参数以及所有子模块的参数。这意味着对 parameters()
和 named_parameters()
的调用将递归地包括子参数,从而方便对网络中所有参数进行优化:
for parameter in dynamic_net.named_parameters():
print(parameter)
: ('linears.0.weight', Parameter containing:
tensor([[-1.2051, 0.7601, 1.1065, 0.1963],
[ 3.0592, 0.4354, 1.6598, 0.9828],
[-0.4446, 0.4628, 0.8774, 1.6848],
[-0.1222, 1.5458, 1.1729, 1.4647]], requires_grad=True))
('linears.0.bias', Parameter containing:
tensor([ 1.5310, 1.0609, -2.0940, 1.1266], requires_grad=True))
('linears.1.weight', Parameter containing:
tensor([[ 2.1113, -0.0623, -1.0806, 0.3508],
[-0.0550, 1.5317, 1.1064, -0.5562],
[-0.4028, -0.6942, 1.5793, -1.0140],
[-0.0329, 0.1160, -1.7183, -1.0434]], requires_grad=True))
('linears.1.bias', Parameter containing:
tensor([ 0.0361, -0.9768, -0.3889, 1.1613], requires_grad=True))
('linears.2.weight', Parameter containing:
tensor([[-2.6340, -0.3887, -0.9979, 0.0767],
[-0.3526, 0.8756, -1.5847, -0.6016],
[-0.3269, -0.1608, 0.2897, -2.0829],
[ 2.6338, 0.9239, 0.6943, -1.5034]], requires_grad=True))
('linears.2.bias', Parameter containing:
tensor([ 1.0268, 0.4489, -0.9403, 0.1571], requires_grad=True))
('final.weight', Parameter containing:
tensor([[ 0.2509], [-0.5052], [ 0.3088], [-1.4951]], requires_grad=True))
('final.bias', Parameter containing:
tensor([0.3381], requires_grad=True))
使用 to()
可以轻松地将所有参数移动到不同的设备或更改它们的精度:
# Move all parameters to a CUDA device
dynamic_net.to(device='cuda')
# Change precision of all parameters
dynamic_net.to(dtype=torch.float64)
dynamic_net(torch.randn(5, device='cuda', dtype=torch.float64))
: tensor([6.5166], device='cuda:0', dtype=torch.float64, grad_fn=<AddBackward0>)
更一般地,可以使用 apply()
函数递归地将任意函数应用于模块及其子模块。例如,为了对模块及其子模块的参数应用自定义初始化:
# Define a function to initialize Linear weights.
# Note that no_grad() is used here to avoid tracking this computation in the autograd graph.
@torch.no_grad()
def init_weights(m):
if isinstance(m, nn.Linear):
nn.init.xavier_normal_(m.weight)
m.bias.fill_(0.0)
# Apply the function recursively on the module and its submodules.
dynamic_net.apply(init_weights)
这些示例展示了如何通过模块组合构建复杂的神经网络,并方便地进行操作。为了快速方便地构建神经网络,同时减少样板代码,PyTorch 提供了大量性能优异的模块,位于 torch.nn
命名空间内,这些模块执行常见的神经网络操作,如池化、卷积、损失函数等。
在下一节中,我们将给出训练神经网络的完整示例。
如需更多信息,请参阅:
PyTorch 提供的模块库:torch.nn
定义神经网络模块:https://pytorch.org/tutorials/beginner/examples_nn/polynomial_module.html
模块化神经网络训练
网络构建完成后,需要对其进行训练,并且可以使用 PyTorch 的优化器轻松优化其参数:
# Create the network (from previous section) and optimizer
net = Net()
optimizer = torch.optim.SGD(net.parameters(), lr=1e-4, weight_decay=1e-2, momentum=0.9)
# Run a sample training loop that "teaches" the network
# to output the constant zero function
for _ in range(10000):
input = torch.randn(4)
output = net(input)
loss = torch.abs(output)
net.zero_grad()
loss.backward()
optimizer.step()
# After training, switch the module to eval mode to do inference, compute performance metrics, etc.
# (see discussion below for a description of training and evaluation modes)
...
net.eval()
...
在这个简化的例子中,网络学习简单地输出零,因为任何非零输出都会根据其绝对值被“惩罚”,这里使用了 torch.abs()
作为损失函数。虽然这不是一个很有趣的任务,但训练的关键部分都包含在内:
网络被创建。
创建了一个优化器(在这种情况下,是一个随机梯度下降优化器),并将网络的参数与之关联。
- 开始一个训练循环...
获取输入,
运行网络,
计算损失,
将网络参数的梯度置零,
调用 loss.backward() 更新参数梯度,
调用 optimizer.step()将梯度应用到参数上。
在运行上述代码片段之后,请注意网络的参数已经发生了变化。特别是,检查 l1
的 weight
参数的值,现在它们已经接近 0(如预期的那样):
print(net.l1.weight)
: Parameter containing:
tensor([[-0.0013],
[ 0.0030],
[-0.0008]], requires_grad=True)
注意,上述过程是在网络模块处于“训练模式”下完成的。模块默认为训练模式,可以使用 train()
和 eval()
在训练模式和评估模式之间切换。它们的行为会根据所处的模式而有所不同。例如, BatchNorm
模块在训练期间维护一个运行均值和方差,而在评估模式下不会更新。一般来说,模块应在训练期间处于训练模式,仅在推理或评估时切换到评估模式。下面是一个在两种模式下表现不同的自定义模块的示例:
class ModalModule(nn.Module):
def __init__(self):
super().__init__()
def forward(self, x):
if self.training:
# Add a constant only in training mode.
return x + 1.
else:
return x
m = ModalModule()
x = torch.randn(4)
print('training mode output: {}'.format(m(x)))
: tensor([1.6614, 1.2669, 1.0617, 1.6213, 0.5481])
m.eval()
print('evaluation mode output: {}'.format(m(x)))
: tensor([ 0.6614, 0.2669, 0.0617, 0.6213, -0.4519])
训练神经网络有时可能很棘手。更多信息,请查看:
使用优化器:https://pytorch.org/tutorials/beginner/examples_nn/two_layer_net_optim.html.
神经网络训练:https://pytorch.org/tutorials/beginner/blitz/neural_networks_tutorial.html
Autograd 简介:https://pytorch.org/tutorials/beginner/blitz/autograd_tutorial.html
模块状态 ¶
在上一节中,我们展示了如何训练模块的“参数”,即计算的可学习方面。现在,如果我们想将训练好的模型保存到磁盘上,我们可以通过保存其 state_dict
(即“状态字典”)来实现:
# Save the module
torch.save(net.state_dict(), 'net.pt')
...
# Load the module later on
new_net = Net()
new_net.load_state_dict(torch.load('net.pt'))
: <All keys matched successfully>
模块的状态字典包含影响其计算的状态。这包括但不限于模块的参数。对于某些模块,可能需要具有影响模块计算但不可学习的状态。在这种情况下,PyTorch 提供了“缓冲区”的概念,包括“持久”和“非持久”两种。以下是模块可以拥有的各种状态的概述:
参数:计算的可学习方面;包含在
state_dict
中缓冲区:不可学习的计算方面
持久缓冲区:包含在
state_dict
中(即保存和加载时序列化)非持久缓冲区:不包含在
state_dict
中(即序列化时被排除)
作为缓冲区使用的激励示例,考虑一个简单的模块,该模块维护一个运行平均值。我们希望当前运行平均值被视为模块的 state_dict
的一部分,以便在从磁盘加载模块的序列化形式时恢复,但我们不希望它可学习。以下代码片段展示了如何使用 register_buffer()
来实现这一点:
class RunningMean(nn.Module):
def __init__(self, num_features, momentum=0.9):
super().__init__()
self.momentum = momentum
self.register_buffer('mean', torch.zeros(num_features))
def forward(self, x):
self.mean = self.momentum * self.mean + (1.0 - self.momentum) * x
return self.mean
现在,当前运行平均值被视为模块的 state_dict
的一部分,在从磁盘加载模块时将正确恢复:
m = RunningMean(4)
for _ in range(10):
input = torch.randn(4)
m(input)
print(m.state_dict())
: OrderedDict([('mean', tensor([ 0.1041, -0.1113, -0.0647, 0.1515]))]))
# Serialized form will contain the 'mean' tensor
torch.save(m.state_dict(), 'mean.pt')
m_loaded = RunningMean(4)
m_loaded.load_state_dict(torch.load('mean.pt'))
assert(torch.all(m.mean == m_loaded.mean))
如前所述,可以通过将缓冲区标记为非持久性来从模块的 state_dict
中省略它们:
self.register_buffer('unserialized_thing', torch.randn(5), persistent=False)
持久性和非持久性缓冲区都会受到使用 to()
应用的全局设备/数据类型更改的影响:
# Moves all module parameters and buffers to the specified device / dtype
m.to(device='cuda', dtype=torch.float64)
可以使用 buffers()
或 named_buffers()
遍历模块的缓冲区。
for buffer in m.named_buffers():
print(buffer)
以下类演示了在模块内注册参数和缓冲区的各种方法:
class StatefulModule(nn.Module):
def __init__(self):
super().__init__()
# Setting a nn.Parameter as an attribute of the module automatically registers the tensor
# as a parameter of the module.
self.param1 = nn.Parameter(torch.randn(2))
# Alternative string-based way to register a parameter.
self.register_parameter('param2', nn.Parameter(torch.randn(3)))
# Reserves the "param3" attribute as a parameter, preventing it from being set to anything
# except a parameter. "None" entries like this will not be present in the module's state_dict.
self.register_parameter('param3', None)
# Registers a list of parameters.
self.param_list = nn.ParameterList([nn.Parameter(torch.randn(2)) for i in range(3)])
# Registers a dictionary of parameters.
self.param_dict = nn.ParameterDict({
'foo': nn.Parameter(torch.randn(3)),
'bar': nn.Parameter(torch.randn(4))
})
# Registers a persistent buffer (one that appears in the module's state_dict).
self.register_buffer('buffer1', torch.randn(4), persistent=True)
# Registers a non-persistent buffer (one that does not appear in the module's state_dict).
self.register_buffer('buffer2', torch.randn(5), persistent=False)
# Reserves the "buffer3" attribute as a buffer, preventing it from being set to anything
# except a buffer. "None" entries like this will not be present in the module's state_dict.
self.register_buffer('buffer3', None)
# Adding a submodule registers its parameters as parameters of the module.
self.linear = nn.Linear(2, 3)
m = StatefulModule()
# Save and load state_dict.
torch.save(m.state_dict(), 'state.pt')
m_loaded = StatefulModule()
m_loaded.load_state_dict(torch.load('state.pt'))
# Note that non-persistent buffer "buffer2" and reserved attributes "param3" and "buffer3" do
# not appear in the state_dict.
print(m_loaded.state_dict())
: OrderedDict([('param1', tensor([-0.0322, 0.9066])),
('param2', tensor([-0.4472, 0.1409, 0.4852])),
('buffer1', tensor([ 0.6949, -0.1944, 1.2911, -2.1044])),
('param_list.0', tensor([ 0.4202, -0.1953])),
('param_list.1', tensor([ 1.5299, -0.8747])),
('param_list.2', tensor([-1.6289, 1.4898])),
('param_dict.bar', tensor([-0.6434, 1.5187, 0.0346, -0.4077])),
('param_dict.foo', tensor([-0.0845, -1.4324, 0.7022])),
('linear.weight', tensor([[-0.3915, -0.6176],
[ 0.6062, -0.5992],
[ 0.4452, -0.2843]])),
('linear.bias', tensor([-0.3710, -0.0795, -0.3947]))])
想了解更多信息,请查看:
保存和加载:https://pytorch.org/tutorials/beginner/saving_loading_models.html
序列化语义:https://pytorch.org/docs/main/notes/serialization.html
状态字典是什么?https://pytorch.org/tutorials/recipes/recipes/what_is_state_dict.html
模块初始化 ¶
默认情况下,由 torch.nn
提供的模块的参数和浮点缓冲区在模块实例化期间使用历史性能良好的初始化方案在 CPU 上初始化为 32 位浮点值。对于某些用例,可能希望使用不同的 dtype、设备(例如 GPU)或初始化技术进行初始化。
示例:
# Initialize module directly onto GPU.
m = nn.Linear(5, 3, device='cuda')
# Initialize module with 16-bit floating point parameters.
m = nn.Linear(5, 3, dtype=torch.half)
# Skip default parameter initialization and perform custom (e.g. orthogonal) initialization.
m = torch.nn.utils.skip_init(nn.Linear, 5, 3)
nn.init.orthogonal_(m.weight)
注意,上述设备和大小的选项也适用于为模块注册的任何浮点缓冲区:
m = nn.BatchNorm2d(3, dtype=torch.half)
print(m.running_mean)
: tensor([0., 0., 0.], dtype=torch.float16)
虽然模块编写者可以使用任何设备或 dtype 来初始化自定义模块中的参数,但良好的做法是默认使用 dtype=torch.float
和 device='cpu'
。可选地,您可以通过遵守上述约定来为您的自定义模块提供在这些领域的完全灵活性,即所有 torch.nn
模块遵循的约定:
提供一个
device
构造函数参数,适用于模块注册的任何参数/缓冲区。提供一个
dtype
构造函数参数,适用于模块注册的任何参数/浮点缓冲区。仅在模块构造函数中(即
torch.nn.init
中的函数)使用初始化函数。注意,这仅在使用skip_init()
时是必需的;请参阅此页面以获取解释。
如需更多信息,请查看:
跳过模块参数初始化:https://pytorch.org/tutorials/prototype/skip_param_init.html
模块钩子
在使用模块进行神经网络训练中,我们展示了模块的训练过程,该过程迭代执行前向和反向传播,并在每次迭代中更新模块参数。为了对此过程有更多的控制,PyTorch 提供了可以在前向或反向传播过程中执行任意计算的“钩子”,如果需要,甚至可以修改传播的方式。此功能的一些有用示例包括调试、可视化激活、深入检查梯度等。钩子可以添加到您未编写的模块中,这意味着此功能可以应用于第三方或 PyTorch 提供的模块。
PyTorch 为模块提供两种类型的钩子:
前向钩子在正向传播期间被调用。可以使用
register_forward_pre_hook()
和register_forward_hook()
为特定模块安装这些钩子。这些钩子将分别在调用前向函数之前和之后被调用。或者,这些钩子也可以使用类似register_module_forward_pre_hook()
和register_module_forward_hook()
的函数全局安装到所有模块中。反向钩子在反向传播期间被调用。可以使用
register_full_backward_pre_hook()
和register_full_backward_hook()
进行安装。这些钩子将在计算此模块的反向传播时被调用。register_full_backward_pre_hook()
将允许用户访问输出的梯度,而register_full_backward_hook()
将允许用户访问输入和输出的梯度。或者,它们也可以使用register_module_full_backward_hook()
和register_module_full_backward_pre_hook()
全局安装到所有模块中。
所有钩子都允许用户返回一个更新后的值,该值将在剩余的计算中使用。因此,这些钩子可以用来在常规模块的前向/反向传播中执行任意代码,或者修改一些输入/输出,而无需更改模块的 forward()
函数。
下面是一个演示前向和反向钩子使用的示例:
torch.manual_seed(1)
def forward_pre_hook(m, inputs):
# Allows for examination and modification of the input before the forward pass.
# Note that inputs are always wrapped in a tuple.
input = inputs[0]
return input + 1.
def forward_hook(m, inputs, output):
# Allows for examination of inputs / outputs and modification of the outputs
# after the forward pass. Note that inputs are always wrapped in a tuple while outputs
# are passed as-is.
# Residual computation a la ResNet.
return output + inputs[0]
def backward_hook(m, grad_inputs, grad_outputs):
# Allows for examination of grad_inputs / grad_outputs and modification of
# grad_inputs used in the rest of the backwards pass. Note that grad_inputs and
# grad_outputs are always wrapped in tuples.
new_grad_inputs = [torch.ones_like(gi) * 42. for gi in grad_inputs]
return new_grad_inputs
# Create sample module & input.
m = nn.Linear(3, 3)
x = torch.randn(2, 3, requires_grad=True)
# ==== Demonstrate forward hooks. ====
# Run input through module before and after adding hooks.
print('output with no forward hooks: {}'.format(m(x)))
: output with no forward hooks: tensor([[-0.5059, -0.8158, 0.2390],
[-0.0043, 0.4724, -0.1714]], grad_fn=<AddmmBackward>)
# Note that the modified input results in a different output.
forward_pre_hook_handle = m.register_forward_pre_hook(forward_pre_hook)
print('output with forward pre hook: {}'.format(m(x)))
: output with forward pre hook: tensor([[-0.5752, -0.7421, 0.4942],
[-0.0736, 0.5461, 0.0838]], grad_fn=<AddmmBackward>)
# Note the modified output.
forward_hook_handle = m.register_forward_hook(forward_hook)
print('output with both forward hooks: {}'.format(m(x)))
: output with both forward hooks: tensor([[-1.0980, 0.6396, 0.4666],
[ 0.3634, 0.6538, 1.0256]], grad_fn=<AddBackward0>)
# Remove hooks; note that the output here matches the output before adding hooks.
forward_pre_hook_handle.remove()
forward_hook_handle.remove()
print('output after removing forward hooks: {}'.format(m(x)))
: output after removing forward hooks: tensor([[-0.5059, -0.8158, 0.2390],
[-0.0043, 0.4724, -0.1714]], grad_fn=<AddmmBackward>)
# ==== Demonstrate backward hooks. ====
m(x).sum().backward()
print('x.grad with no backwards hook: {}'.format(x.grad))
: x.grad with no backwards hook: tensor([[ 0.4497, -0.5046, 0.3146],
[ 0.4497, -0.5046, 0.3146]])
# Clear gradients before running backward pass again.
m.zero_grad()
x.grad.zero_()
m.register_full_backward_hook(backward_hook)
m(x).sum().backward()
print('x.grad with backwards hook: {}'.format(x.grad))
: x.grad with backwards hook: tensor([[42., 42., 42.],
[42., 42., 42.]])
高级功能 ¶
PyTorch 还提供了许多其他高级功能,这些功能旨在与模块一起使用。所有这些功能都适用于自定义编写的模块,但有一个小限制,即某些功能可能需要模块符合特定约束才能得到支持。关于这些功能和相应要求的深入讨论可以在下面的链接中找到。
分布式训练 ¶
PyTorch 中存在多种分布式训练方法,包括使用多个 GPU 扩展训练以及跨多台机器进行训练。请查看分布式训练概述页面,以获取有关如何利用这些方法的详细信息。
性能分析 ¶
PyTorch 性能分析器可以用来识别模型中的性能瓶颈。它可以测量并输出内存使用和时间消耗的性能特征。
使用量化技术提升性能 ¶
通过应用量化技术到模块中,可以使用比浮点精度更低的位宽来提升性能和内存使用。在此处查看 PyTorch 提供的各种量化机制。
使用剪枝改进内存使用率
大型深度学习模型通常过参数化,导致内存使用量高。为了解决这个问题,PyTorch 提供了模型剪枝的机制,这有助于在保持任务准确性的同时减少内存使用。剪枝教程描述了如何利用 PyTorch 提供的剪枝技术,或者根据需要定义自定义剪枝技术。
参数化
对于某些应用,在模型训练期间对参数空间进行约束可能是有益的。例如,强制学习参数的正交性可以提高 RNN 的收敛性。PyTorch 提供了应用此类参数化的机制,并允许定义自定义约束。
使用 FX 转换模块
PyTorch 的 FX 组件提供了一种灵活的方式来通过直接操作模块计算图来转换模块。这可以用于程序化地生成或操作用于广泛用例的模块。要探索 FX,请查看使用 FX 进行卷积+批归一融合和 CPU 性能分析的示例。