线性 ReLU ¶
- class torch.ao.nn.intrinsic.qat.LinearReLU(in_features, out_features, bias=True, qconfig=None)[source][source]¶
线性 ReLU 模块,由线性模块和 ReLU 模块融合而成,附加了用于权重的 FakeQuantize 模块,用于量化感知训练。
采用与
torch.nn.Linear
相同的接口。与 torch.ao.nn.intrinsic.LinearReLU 类似,FakeQuantize 模块初始化为默认值。
- 变量:
权重(torch.Tensor)- 权重伪量化模块
示例:
>>> m = nn.qat.LinearReLU(20, 30) >>> input = torch.randn(128, 20) >>> output = m(input) >>> print(output.size()) torch.Size([128, 30])