評價此頁

torch.linalg.lu#

torch.linalg.lu(A, *, pivot=True, out=None)#

計算帶部分主元的矩陣的 LU 分解。

K\mathbb{K}R\mathbb{R}C\mathbb{C},則矩陣 AKm×nA \in \mathbb{K}^{m \times n}帶部分主元的 LU 分解定義為

A=PLUPKm×m,LKm×k,UKk×nA = PLU\mathrlap{\qquad P \in \mathbb{K}^{m \times m}, L \in \mathbb{K}^{m \times k}, U \in \mathbb{K}^{k \times n}}

其中 k = min(m,n)PP 是一個 置換矩陣LL 是一個下三角矩陣,對角線上為 1,而 UU 是一個上三角矩陣。

如果 pivot= FalseA 在 GPU 上,則計算的是不帶主元的 LU 分解

A=LULKm×k,UKk×nA = LU\mathrlap{\qquad L \in \mathbb{K}^{m \times k}, U \in \mathbb{K}^{k \times n}}

pivot= False 時,返回的矩陣 P 將為空。如果 A 的任何主子式是奇異的,則不帶主元的 LU 分解可能不存在。在這種情況下,輸出矩陣可能包含 infNaN

支援浮點 (float)、雙精度浮點 (double)、複數浮點 (cfloat) 和複數雙精度浮點 (cdouble) 資料型別。還支援矩陣批處理,如果 `A` 是一個矩陣批處理,則輸出具有相同的批處理維度。

另請參閱

torch.linalg.solve() 使用帶部分主元的 LU 分解來求解線性方程組。

警告

LU 分解幾乎從不唯一,因為通常有不同的置換矩陣可以產生不同的 LU 分解。因此,不同的平臺,例如 SciPy,或者不同裝置上的輸入,可能會產生不同的有效分解。

警告

梯度計算僅在輸入矩陣滿秩時支援。如果此條件不滿足,則不會丟擲錯誤,但梯度可能不是有限的。這是因為帶主元的 LU 分解在這些點上是不可微的。

引數
  • A (Tensor) – 形狀為 (*, m, n) 的張量,其中 * 是零個或多個批處理維度。

  • pivot (bool, optional) – 控制是計算帶部分主元的 LU 分解還是不帶主元的 LU 分解。預設為 True

關鍵字引數

out (tuple, optional) – 輸出元組,包含三個張量。如果為 None 則忽略。預設為 None

返回

一個命名元組 (P, L, U)

示例

>>> A = torch.randn(3, 2)
>>> P, L, U = torch.linalg.lu(A)
>>> P
tensor([[0., 1., 0.],
        [0., 0., 1.],
        [1., 0., 0.]])
>>> L
tensor([[1.0000, 0.0000],
        [0.5007, 1.0000],
        [0.0633, 0.9755]])
>>> U
tensor([[0.3771, 0.0489],
        [0.0000, 0.9644]])
>>> torch.dist(A, P @ L @ U)
tensor(5.9605e-08)

>>> A = torch.randn(2, 5, 7, device="cuda")
>>> P, L, U = torch.linalg.lu(A, pivot=False)
>>> P
tensor([], device='cuda:0')
>>> torch.dist(A, L @ U)
tensor(1.0376e-06, device='cuda:0')