torch.linalg.matrix_rank#
- torch.linalg.matrix_rank(A, *, atol=None, rtol=None, hermitian=False, out=None) Tensor#
計算矩陣的數值秩。
矩陣秩計算為大於 的奇異值(或在
hermitian= True 時為絕對值的特徵值)的數量,其中 是最大的奇異值(或特徵值)。支援浮點 (float)、雙精度浮點 (double)、複數浮點 (cfloat) 和複數雙精度浮點 (cdouble) 資料型別。還支援矩陣批處理,如果 `A` 是一個矩陣批處理,則輸出具有相同的批處理維度。
如果
hermitian= True,則假設A是厄米矩陣(如果為複數)或對稱矩陣(如果為實數),但內部不會進行檢查。而是僅使用矩陣的下三角部分進行計算。如果未指定
rtol且A的維度為 (m, n),則相對容差設定為 ,其中 是A的 dtype 的 epsilon 值(參見finfo)。如果未指定rtol且atol被指定為大於零,則rtol將被設定為零。如果
atol或rtol是一個torch.Tensor,則其形狀必須與torch.linalg.svdvals()返回的A的奇異值形狀可廣播。注意
此函式具有與 NumPy 相容的版本 linalg.matrix_rank(A, tol, hermitian=False)。然而,使用位置引數
tol已棄用,推薦使用atol和rtol。注意
矩陣秩使用奇異值分解
torch.linalg.svdvals()來計算(當hermitian= False(預設)時),並在特徵值分解torch.linalg.eigvalsh()時計算(當hermitian= True 時)。當輸入在 CUDA 裝置上時,此函式將該裝置與 CPU 同步。- 引數
- 關鍵字引數
示例
>>> A = torch.eye(10) >>> torch.linalg.matrix_rank(A) tensor(10) >>> B = torch.eye(10) >>> B[0, 0] = 0 >>> torch.linalg.matrix_rank(B) tensor(9) >>> A = torch.randn(4, 3, 2) >>> torch.linalg.matrix_rank(A) tensor([2, 2, 2, 2]) >>> A = torch.randn(2, 4, 2, 3) >>> torch.linalg.matrix_rank(A) tensor([[2, 2, 2, 2], [2, 2, 2, 2]]) >>> A = torch.randn(2, 4, 3, 3, dtype=torch.complex64) >>> torch.linalg.matrix_rank(A) tensor([[3, 3, 3, 3], [3, 3, 3, 3]]) >>> torch.linalg.matrix_rank(A, hermitian=True) tensor([[3, 3, 3, 3], [3, 3, 3, 3]]) >>> torch.linalg.matrix_rank(A, atol=1.0, rtol=0.0) tensor([[3, 2, 2, 2], [1, 2, 1, 2]]) >>> torch.linalg.matrix_rank(A, atol=1.0, rtol=0.0, hermitian=True) tensor([[2, 2, 2, 1], [1, 2, 2, 2]])