評價此頁

torch.fft.rfftfreq#

torch.fft.rfftfreq(n, d=1.0, *, out=None, dtype=None, layout=torch.strided, device=None, requires_grad=False) Tensor#

計算 rfft() 的取樣頻率,訊號大小為 n

注意

rfft() 返回厄米單邊輸出,因此只返回正頻率項。對於長度為 n 的實數 FFT,並且輸入間隔為 d,頻率為

f = torch.arange((n + 1) // 2) / (d * n)

注意

對於偶數長度,在 f[n/2] 處的奈奎斯特頻率可以被認為是負頻率或正頻率。與 fftfreq() 不同,rfftfreq() 始終將其返回為正數。

引數
  • n (int) – 實數 FFT 的長度

  • d (float, optional) – 取樣長度尺度。FFT 輸入的各個樣本之間的間隔。預設假設單位間隔,將該結果除以實際間隔即可得到物理頻率單位的結果。

關鍵字引數
  • out (Tensor, optional) – 輸出張量。

  • dtype (torch.dtype, optional) – 返回張量的期望資料型別。預設值:如果 None,則使用全域性預設值(參見 torch.set_default_dtype())。

  • layout (torch.layout, 可選) – 返回張量的所需佈局。預設:torch.strided

  • device (torch.device, optional) – 返回張量的期望裝置。預設值:如果為 None,則使用預設張量型別的當前裝置(請參閱 torch.set_default_device())。對於 CPU 張量型別,device 將是 CPU,對於 CUDA 張量型別,將是當前 CUDA 裝置。

  • requires_grad (bool, optional) – 如果 autograd 應記錄在返回的張量上的操作。預設值:False

示例

>>> torch.fft.rfftfreq(5)
tensor([0.0000, 0.2000, 0.4000])
>>> torch.fft.rfftfreq(4)
tensor([0.0000, 0.2500, 0.5000])

fftfreq() 的輸出相比,我們發現 f[2] 處的奈奎斯特頻率改變了符號:>>> torch.fft.fftfreq(4) tensor([ 0.0000, 0.2500, -0.5000, -0.2500])