• 文档 >
  • torch >
  • torch.cov
快捷键

torch.cov

torch.cov(input, *, correction=1, fweights=None, aweights=None) Tensor

估计由 input 矩阵给出的变量的协方差矩阵,其中行是变量,列是观测值。

协方差矩阵是一个方阵,给出了每对变量的协方差。对角线包含每个变量的方差(变量与其自身的协方差)。根据定义,如果 input 代表一个单变量(标量或 1D),则返回其方差。

变量 xxyy 的样本协方差由以下公式给出:

cov(x,y)=i=1N(xixˉ)(yiyˉ)max(0, N  δN)\text{cov}(x,y) = \frac{\sum^{N}_{i = 1}(x_{i} - \bar{x})(y_{i} - \bar{y})}{\max(0,~N~-~\delta N)}

其中 xˉ\bar{x}yˉ\bar{y} 分别是 xxyy 的简单平均值,而 δN\delta Ncorrection

如果提供了 fweights 和/或 aweights ,则计算加权协方差,其公式如下:

covw(x,y)=i=1Nwi(xiμx)(yiμy)max(0, i=1Nwi  i=1Nwiaii=1Nwi δN)\text{cov}_w(x,y) = \frac{\sum^{N}_{i = 1}w_i(x_{i} - \mu_x^*)(y_{i} - \mu_y^*)} {\max(0,~\sum^{N}_{i = 1}w_i~-~\frac{\sum^{N}_{i = 1}w_ia_i}{\sum^{N}_{i = 1}w_i}~\delta N)}

其中 ww 表示 fweightsaweights (为简便起见, fa ),根据提供的哪一个,或者如果两者都提供,则为 w=f×aw = f \times a ,而 μx=i=1Nwixii=1Nwi\mu_x^* = \frac{\sum^{N}_{i = 1}w_ix_{i} }{\sum^{N}_{i = 1}w_i} 是变量的加权平均值。如果没有提供,则 f 和/或 a 可以视为适当大小的 1\mathbb{1} 向量。

参数:

输入(张量)- 包含多个变量和观测值的 2D 矩阵,或表示单个变量的标量或 1D 向量。

关键字参数:
  • 校正(整型,可选)- 样本大小与样本自由度之间的差异。默认为贝塞尔校正, correction = 1 返回无偏估计,即使 fweightsaweights 都已指定。 correction = 0 将返回简单平均值。默认为 1

  • fweights(张量,可选)- 表示每个观测值应重复次数的观测向量频率的标量或 1D 张量。其 numel 必须等于 input 的列数。必须有整型数据类型。如果 None 则忽略。默认为 None

  • aweights(张量,可选)- 表示观测向量权重的标量或 1D 数组。这些相对权重通常对于被认为是“重要”的观测值较大,对于被认为是“不重要”的观测值较小。其 numel 必须等于 input 的列数。必须有浮点型数据类型。如果 None 则忽略。默认为 None

返回值:

(张量)变量的协方差矩阵。

参见

torch.corrcoef() 标准化协方差矩阵。

示例::
>>> x = torch.tensor([[0, 2], [1, 1], [2, 0]]).T
>>> x
tensor([[0, 1, 2],
        [2, 1, 0]])
>>> torch.cov(x)
tensor([[ 1., -1.],
        [-1.,  1.]])
>>> torch.cov(x, correction=0)
tensor([[ 0.6667, -0.6667],
        [-0.6667,  0.6667]])
>>> fw = torch.randint(1, 10, (3,))
>>> fw
tensor([1, 6, 9])
>>> aw = torch.rand(3)
>>> aw
tensor([0.4282, 0.0255, 0.4144])
>>> torch.cov(x, fweights=fw, aweights=aw)
tensor([[ 0.4169, -0.4169],
        [-0.4169,  0.4169]])

© 版权所有 PyTorch 贡献者。

使用 Sphinx 构建,并使用 Read the Docs 提供的主题。

文档

PyTorch 的全面开发者文档

查看文档

教程

深入了解初学者和高级开发者的教程

查看教程

资源

查找开发资源并获得您的疑问解答

查看资源