torch.fft.rfftn#
- torch.fft.rfftn(input, s=None, dim=None, norm=None, *, out=None) Tensor#
計算實數
input的 N 維離散傅立葉變換。實數訊號的傅立葉變換是厄米對稱的,
X[i_1, ..., i_n] = conj(X[-i_1, ..., -i_n]),因此fftn()的完整輸出包含冗餘資訊。rfftn()則省略了最後一個維度中的負頻率。注意
支援CUDA上的torch.half(GPU架構SM53或更高)。但是它只支援每個轉換維度中2的冪次訊號長度。
- 引數
input (Tensor) – 輸入張量
s (Tuple[int], optional) – 變換維度的訊號大小。如果給定,則
dim[i]維將被零填充或裁剪到長度s[i],然後再計算實傅立葉變換。如果指定長度為-1,則該維度不進行填充。預設值:s = [input.size(d) for d in dim]dim (Tuple[int], optional) – 要變換的維度。預設值:所有維度,或者如果給出了
s,則為最後len(s)個維度。norm (str, optional) –
歸一化模式。對於正向變換(
rfftn()),這些對應於"forward"- 歸一化因子為1/n"backward"- 無歸一化"ortho"- 歸一化因子為1/sqrt(n)(使實傅立葉變換為正交變換)
其中
n = prod(s)是邏輯 FFT 大小。使用相同的歸一化模式呼叫反向變換(irfftn())將在兩次變換之間應用一個整體歸一化1/n。這對於使irfftn()成為精確的逆變換是必需的。預設值為
"backward"(無歸一化)。
- 關鍵字引數
out (Tensor, optional) – 輸出張量。
示例
>>> t = torch.rand(10, 10) >>> rfftn = torch.fft.rfftn(t) >>> rfftn.size() torch.Size([10, 6])
與
fftn()的完整輸出相比,我們包含了所有直到奈奎斯特頻率的元素。>>> fftn = torch.fft.fftn(t) >>> torch.testing.assert_close(fftn[..., :6], rfftn, check_stride=False)
離散傅立葉變換是可分離的,因此這裡的
rfftn()等同於fft()和rfft()的組合。>>> two_ffts = torch.fft.fft(torch.fft.rfft(t, dim=1), dim=0) >>> torch.testing.assert_close(rfftn, two_ffts, check_stride=False)