評價此頁

torch.linalg.solve#

torch.linalg.solve(A, B, *, left=True, out=None) Tensor#

計算具有唯一解的方線性方程組的解。

K\mathbb{K}R\mathbb{R}C\mathbb{C},該函式計算 XKn×kX \in \mathbb{K}^{n \times k} 的解,該解是與 AKn×n,BKn×kA \in \mathbb{K}^{n \times n}, B \in \mathbb{K}^{n \times k} associated的**線性方程組**,其定義如下:

AX=BAX = B

如果 left= False,則該函式返回矩陣 XKn×kX \in \mathbb{K}^{n \times k},用於求解以下方程組:

XA=BAKk×k,BKn×k.XA = B\mathrlap{\qquad A \in \mathbb{K}^{k \times k}, B \in \mathbb{K}^{n \times k}.}

當且僅當 AA可逆矩陣 時,該線性方程組才有一個解。本函式假設 AA 是可逆的。

支援float、double、cfloat和cdouble資料型別的輸入。也支援矩陣的批次,如果輸入是矩陣的批次,則輸出具有相同的批次維度。

* 為零個或多個批處理維度,

  • 如果 A 的形狀為 (*, n, n),而 B 的形狀為 (*, n)(向量批)或形狀 (*, n, k)(矩陣批或“多個右側值”),則此函式返回形狀分別為 (*, n)(*, n, k)X

  • 否則,如果 A 的形狀為 (*, n, n),而 B 的形狀為 (n,)(n, k),則 B 將被廣播(broadcast)以具有 (*, n)(*, n, k) 的形狀。然後,此函式返回由由此產生的線性方程組批次組成的解。

注意

此函式以比單獨執行計算更快、更數值穩定的方式計算 X = A.inverse() @ B

注意

可以透過傳遞 AB 的轉置,並轉置此函式返回的輸出來計算 XA=BXA = B 線性方程組的解。

注意

A 可以是未批處理的 torch.sparse_csr_tensor,但僅限於 left=True

注意

當輸入位於 CUDA 裝置上時,此函式會使該裝置與 CPU 同步。有關不進行同步的該函式版本,請參閱 torch.linalg.solve_ex()

另請參閱

torch.linalg.solve_triangular() 計算具有唯一解的三角線性方程組的解。

引數
  • A (Tensor) – 形狀為 (*, n, n) 的張量,其中 * 是零個或多個批次維度。

  • B (Tensor) – 右側值張量,形狀根據上述規則為 (*, n)(*, n, k)(n,)(n, k)

關鍵字引數
  • left (bool, optional) – 是要解方程組 AX=BAX=B 還是 XA=BXA = B。預設為 True

  • out (Tensor, optional) – 輸出張量。如果為 None 則忽略。預設為 None

引發

RuntimeError – 如果 A 矩陣不可逆,或批處理 A 中的任何矩陣不可逆。

示例

>>> A = torch.randn(3, 3)
>>> b = torch.randn(3)
>>> x = torch.linalg.solve(A, b)
>>> torch.allclose(A @ x, b)
True
>>> A = torch.randn(2, 3, 3)
>>> B = torch.randn(2, 3, 4)
>>> X = torch.linalg.solve(A, B)
>>> X.shape
torch.Size([2, 3, 4])
>>> torch.allclose(A @ X, B)
True

>>> A = torch.randn(2, 3, 3)
>>> b = torch.randn(3, 1)
>>> x = torch.linalg.solve(A, b) # b is broadcasted to size (2, 3, 1)
>>> x.shape
torch.Size([2, 3, 1])
>>> torch.allclose(A @ x, b)
True
>>> b = torch.randn(3)
>>> x = torch.linalg.solve(A, b) # b is broadcasted to size (2, 3)
>>> x.shape
torch.Size([2, 3])
>>> Ax = A @ x.unsqueeze(-1)
>>> torch.allclose(Ax, b.unsqueeze(-1).expand_as(Ax))
True