torch.linalg.eig#
- torch.linalg.eig(A, *, out=None)#
計算方陣的特徵值分解(如果存在)。
令 為 或 ,方陣 的**特徵值分解**(如果存在)定義為
此分解存在當且僅當 是 可對角化的。當其所有特徵值都不同時,這種情況成立。
支援浮點 (float)、雙精度浮點 (double)、複數浮點 (cfloat) 和複數雙精度浮點 (cdouble) 資料型別。還支援矩陣批處理,如果 `A` 是一個矩陣批處理,則輸出具有相同的批處理維度。
返回的特徵值不保證按任何特定順序排列。
注意
實數矩陣的特徵值和特徵向量可能是複數。
注意
當輸入在 CUDA 裝置上時,此函式會使該裝置與 CPU 同步。
警告
此函式假定
A是 可對角化的(例如,當所有特徵值都不同時)。如果它不可對角化,則返回的特徵值是正確的,但 .警告
返回的特徵向量被歸一化為範數 1。即便如此,矩陣的特徵向量也不是唯一的,也不是關於
A連續的。由於這種非唯一性,不同的硬體和軟體可能計算出不同的特徵向量。這種非唯一性是由一個事實引起的:將特徵向量乘以 會產生另一組有效的矩陣特徵向量。因此,損失函式不應依賴於特徵向量的相位,因為該量不是明確定義的。在計算此函式的梯度時會檢查這一點。因此,當輸入在 CUDA 裝置上時,此函式梯度的計算會使該裝置與 CPU 同步。
警告
使用 eigenvectors 張量計算的梯度僅在
A具有不同特徵值時才為有限值。此外,如果任意兩個特徵值之間的距離接近於零,則梯度在數值上是不穩定的,因為它依賴於特徵值 透過計算 .另請參閱
torch.linalg.eigvals()僅計算特徵值。與torch.linalg.eig()不同,eigvals()的梯度在數值上始終是穩定的。對於
torch.linalg.eigh(),這是一個(更快的)函式,用於計算厄米矩陣和對稱矩陣的特徵值分解。對於
torch.linalg.svd(),這是一個計算另一種譜分解的函式,適用於任何形狀的矩陣。對於
torch.linalg.qr(),這是一個(快得多)的分解,適用於任何形狀的矩陣。- 引數
A (Tensor) – 形狀為 (*, n, n) 的張量,其中 * 是零個或多個批次維度,由可對角化矩陣組成。
- 關鍵字引數
out (tuple, optional) – 包含兩個張量的輸出元組。如果為 None 則忽略。預設為 None。
- 返回
一個命名元組 (eigenvalues, eigenvectors),對應於上面的 和 。
eigenvalues 和 eigenvectors 始終為複數值,即使
A為實數。特徵向量將由 eigenvectors 的列給出。
示例
>>> A = torch.randn(2, 2, dtype=torch.complex128) >>> A tensor([[ 0.9828+0.3889j, -0.4617+0.3010j], [ 0.1662-0.7435j, -0.6139+0.0562j]], dtype=torch.complex128) >>> L, V = torch.linalg.eig(A) >>> L tensor([ 1.1226+0.5738j, -0.7537-0.1286j], dtype=torch.complex128) >>> V tensor([[ 0.9218+0.0000j, 0.1882-0.2220j], [-0.0270-0.3867j, 0.9567+0.0000j]], dtype=torch.complex128) >>> torch.dist(V @ torch.diag(L) @ torch.linalg.inv(V), A) tensor(7.7119e-16, dtype=torch.float64) >>> A = torch.randn(3, 2, 2, dtype=torch.float64) >>> L, V = torch.linalg.eig(A) >>> torch.dist(V @ torch.diag_embed(L) @ torch.linalg.inv(V), A) tensor(3.2841e-16, dtype=torch.float64)