torch.quantized_batch_norm¶
- torch.quantized_batch_norm(input, weight=None, bias=None, mean, var, eps, output_scale, output_zero_point) Tensor ¶
在一个 4D(NCHW)量化张量上应用批量归一化。
- 参数:
输入(张量)- 量化张量
权重(张量)- 对应伽马值的浮点张量,大小为 C
偏置(张量)- 对应贝塔值的浮点张量,大小为 C
均值(张量)- 批标准化中的浮点均值,大小为 C
var (Tensor) – 浮点方差张量,大小为 C
eps (浮点数) – 为数值稳定性添加到分母的值。
output_scale (浮点数) – 输出量化张量缩放
output_zero_point (整数) – 输出量化张量零点
- 返回值:
应用批归一化的量化张量。
- 返回类型:
示例:
>>> qx = torch.quantize_per_tensor(torch.rand(2, 2, 2, 2), 1.5, 3, torch.quint8) >>> torch.quantized_batch_norm(qx, torch.ones(2), torch.zeros(2), torch.rand(2), torch.rand(2), 0.00001, 0.2, 2) tensor([[[[-0.2000, -0.2000], [ 1.6000, -0.2000]], [[-0.4000, -0.4000], [-0.4000, 0.6000]]], [[[-0.2000, -0.2000], [-0.2000, -0.2000]], [[ 0.6000, -0.4000], [ 0.6000, -0.4000]]]], size=(2, 2, 2, 2), dtype=torch.quint8, quantization_scheme=torch.per_tensor_affine, scale=0.2, zero_point=2)