torch.linalg.eig¶
- torch.linalg.eig(A, *, out=None)¶
计算存在时平方矩阵的特征值分解。
设 为 或 ,则一个方阵 (如果存在)的特征值分解定义为
这种分解存在当且仅当 可对角化。当所有特征值都不同时,这种情况成立。
支持输入 float、double、cfloat 和 cdouble 数据类型。也支持矩阵批处理,如果
A
是矩阵批,则输出具有相同的批维度。返回的特征值不一定保证有特定的顺序。
注意
实矩阵的特征值和特征向量可能是复数。
注意
当输入位于 CUDA 设备上时,此函数将同步该设备与 CPU。
警告
此函数假设
A
是可对角化的(例如,当所有特征值都不同时)。如果它不可对角化,则返回的特征值将是正确的,但 。警告
返回的特征向量被归一化,使其范数为 1。即使如此,矩阵的特征向量也不是唯一的,它们与
A
也不连续。由于这种缺乏唯一性,不同的硬件和软件可能计算不同的特征向量。这种非唯一性是由将特征向量乘以 产生另一组矩阵的有效特征向量这一事实造成的。因此,损失函数不应依赖于特征向量的相位,因为该量没有明确定义。在计算此函数的梯度时,会检查这一点。因此,当输入位于 CUDA 设备上时,此函数梯度的计算将同步该设备与 CPU。
警告
使用特征向量张量计算出的梯度仅在
A
具有不同的特征值时才是有限的。此外,如果任意两个特征值之间的距离接近于零,梯度将因依赖于计算 的特征值而出现数值不稳定性。参见
torch.linalg.eigvals()
仅计算特征值。与torch.linalg.eig()
不同,eigvals()
的梯度始终是数值稳定的。torch.linalg.eigh()
用于计算厄米矩阵和对称矩阵的特征值分解的(更快)函数。torch.linalg.svd()
用于计算适用于任何形状矩阵的另一种类型的谱分解的函数。另一种(速度更快)的分解方法,适用于任何形状的矩阵。
- 参数:
A(张量)- 形状为 (*, n, n) 的张量,其中 * 为零个或多个批处理维度,包含可对角化的矩阵。
- 关键字参数:
out(元组,可选)- 两个张量的输出元组。如果为 None,则忽略。默认:None。
- 返回值:
与 和 对应的命名元组(特征值,特征向量)。
特征值和特征向量始终是复数值,即使当
A
是实数时也是如此。特征向量将由特征向量的列给出。
示例:
>>> A = torch.randn(2, 2, dtype=torch.complex128) >>> A tensor([[ 0.9828+0.3889j, -0.4617+0.3010j], [ 0.1662-0.7435j, -0.6139+0.0562j]], dtype=torch.complex128) >>> L, V = torch.linalg.eig(A) >>> L tensor([ 1.1226+0.5738j, -0.7537-0.1286j], dtype=torch.complex128) >>> V tensor([[ 0.9218+0.0000j, 0.1882-0.2220j], [-0.0270-0.3867j, 0.9567+0.0000j]], dtype=torch.complex128) >>> torch.dist(V @ torch.diag(L) @ torch.linalg.inv(V), A) tensor(7.7119e-16, dtype=torch.float64) >>> A = torch.randn(3, 2, 2, dtype=torch.float64) >>> L, V = torch.linalg.eig(A) >>> torch.dist(V @ torch.diag_embed(L) @ torch.linalg.inv(V), A) tensor(3.2841e-16, dtype=torch.float64)