torch.special#
創建於: Mar 04, 2021 | 最後更新於: Jun 18, 2025
torch.special 模組,模仿了 SciPy 的 special 模組。
函式#
- torch.special.chebyshev_polynomial_t(input, n, *, out=None) Tensor#
第一類 Chebyshev 多項式 。
如果 ,則返回 。如果 ,則返回 。如果 或 ,則進行遞迴
進行求值。否則,顯式三角公式
進行求值。
- torch.special.chebyshev_polynomial_u(input, n, *, out=None) Tensor#
第二類 Chebyshev 多項式 。
如果 ,則返回 。如果 ,則返回 。如果 或 ,則進行遞迴
進行求值。否則,顯式三角公式
進行求值。
- torch.special.digamma(input, *, out=None) Tensor#
計算 input 上的 gamma 函式的對數導數。
注意
此函式類似於 SciPy 的 scipy.special.digamma。
注意
從 PyTorch 1.8 開始,digamma 函式對 0 返回 -Inf。在此之前,它對 0 返回 NaN。
示例
>>> a = torch.tensor([1, 0.5]) >>> torch.special.digamma(a) tensor([-0.5772, -1.9635])
- torch.special.entr(input, *, out=None) Tensor#
逐元素計算
input的熵(定義如下)。示例
>>> a = torch.arange(-0.5, 1, 0.5) >>> a tensor([-0.5000, 0.0000, 0.5000]) >>> torch.special.entr(a) tensor([ -inf, 0.0000, 0.3466])
- torch.special.erf(input, *, out=None) Tensor#
計算
input的誤差函式。誤差函式定義如下:示例
>>> torch.special.erf(torch.tensor([0, -1., 10.])) tensor([ 0.0000, -0.8427, 1.0000])
- torch.special.erfc(input, *, out=None) Tensor#
計算
input的互補誤差函式。互補誤差函式定義如下:示例
>>> torch.special.erfc(torch.tensor([0, -1., 10.])) tensor([ 1.0000, 1.8427, 0.0000])
- torch.special.erfcx(input, *, out=None) Tensor#
計算
input中每個元素的縮放互補誤差函式。縮放互補誤差函式定義如下:示例
>>> torch.special.erfcx(torch.tensor([0, -1., 10.])) tensor([ 1.0000, 5.0090, 0.0561])
- torch.special.erfinv(input, *, out=None) Tensor#
計算
input的逆誤差函式。逆誤差函式在範圍 內定義為:示例
>>> torch.special.erfinv(torch.tensor([0, 0.5, -1.])) tensor([ 0.0000, 0.4769, -inf])
- torch.special.exp2(input, *, out=None) Tensor#
計算
input的以 2 為底的指數函式。示例
>>> torch.special.exp2(torch.tensor([0, math.log2(2.), 3, 4])) tensor([ 1., 2., 8., 16.])
- torch.special.expit(input, *, out=None) Tensor#
計算
input中元素的 expit(也稱為 logistic sigmoid 函式)。示例
>>> t = torch.randn(4) >>> t tensor([ 0.9213, 1.0887, -0.8858, -1.7683]) >>> torch.special.expit(t) tensor([ 0.7153, 0.7481, 0.2920, 0.1458])
- torch.special.expm1(input, *, out=None) Tensor#
計算
input的指數減 1 的值。注意
對於 x 的小值,此函式比 exp(x) - 1 提供更高的精度。
示例
>>> torch.special.expm1(torch.tensor([0, math.log(2.)])) tensor([ 0., 1.])
- torch.special.gammainc(input, other, *, out=None) Tensor#
計算正則化下不完全 gamma 函式
其中 和 都是弱正數,並且至少有一個是嚴格正數。如果兩者都為零或其中一個為負數,則 . 上式中的 是伽馬函式,
請參閱
torch.special.gammaincc()和torch.special.gammaln()獲取相關函式。支援 廣播到公共形狀 和浮點輸入。
注意
目前不支援關於
input的後向傳播。請在 PyTorch 的 Github 上提交 issue 請求新增該功能。示例
>>> a1 = torch.tensor([4.0]) >>> a2 = torch.tensor([3.0, 4.0, 5.0]) >>> a = torch.special.gammaincc(a1, a2) tensor([0.3528, 0.5665, 0.7350]) tensor([0.3528, 0.5665, 0.7350]) >>> b = torch.special.gammainc(a1, a2) + torch.special.gammaincc(a1, a2) tensor([1., 1., 1.])
- torch.special.gammaincc(input, other, *, out=None) Tensor#
計算正則化上不完全伽馬函式
其中 和 都是弱正數,並且至少有一個是嚴格正數。如果兩者都為零或其中一個為負數,則 . 上式中的 是伽馬函式,
請參閱
torch.special.gammainc()和torch.special.gammaln()獲取相關函式。支援 廣播到公共形狀 和浮點輸入。
注意
目前不支援關於
input的後向傳播。請在 PyTorch 的 Github 上提交 issue 請求新增該功能。示例
>>> a1 = torch.tensor([4.0]) >>> a2 = torch.tensor([3.0, 4.0, 5.0]) >>> a = torch.special.gammaincc(a1, a2) tensor([0.6472, 0.4335, 0.2650]) >>> b = torch.special.gammainc(a1, a2) + torch.special.gammaincc(a1, a2) tensor([1., 1., 1.])
- torch.special.gammaln(input, *, out=None) Tensor#
計算
input上伽馬函式絕對值的自然對數。示例
>>> a = torch.arange(0.5, 2, 0.5) >>> torch.special.gammaln(a) tensor([ 0.5724, 0.0000, -0.1208])
- torch.special.hermite_polynomial_h(input, n, *, out=None) Tensor#
物理學家的埃爾米特多項式 。
如果 ,則返回 。如果 ,則返回 。否則,遞迴
進行求值。
- torch.special.hermite_polynomial_he(input, n, *, out=None) Tensor#
機率學家的埃爾米特多項式 。
如果 ,則返回 。如果 ,則返回 。否則,遞迴
進行求值。
- torch.special.i0(input, *, out=None) Tensor#
計算
input中每個元素的零階第一類修正貝塞爾函式。示例
>>> torch.i0(torch.arange(5, dtype=torch.float32)) tensor([ 1.0000, 1.2661, 2.2796, 4.8808, 11.3019])
- torch.special.i0e(input, *, out=None) Tensor#
計算
input中每個元素的指數縮放的零階第一類修正貝塞爾函式(如下定義)。示例
>>> torch.special.i0e(torch.arange(5, dtype=torch.float32)) tensor([1.0000, 0.4658, 0.3085, 0.2430, 0.2070])
- torch.special.i1(input, *, out=None) Tensor#
計算
input中每個元素的(如下定義)一階第一類修正貝塞爾函式。示例
>>> torch.special.i1(torch.arange(5, dtype=torch.float32)) tensor([0.0000, 0.5652, 1.5906, 3.9534, 9.7595])
- torch.special.i1e(input, *, out=None) Tensor#
計算
input中每個元素的指數縮放的第一類修正貝塞爾函式(如下定義)。示例
>>> torch.special.i1e(torch.arange(5, dtype=torch.float32)) tensor([0.0000, 0.2079, 0.2153, 0.1968, 0.1788])
- torch.special.laguerre_polynomial_l(input, n, *, out=None) Tensor#
拉蓋爾多項式 。
如果 ,則返回 。如果 ,則返回 。否則,遞迴
進行求值。
- torch.special.legendre_polynomial_p(input, n, *, out=None) Tensor#
勒讓德多項式 。
如果 ,則返回 。如果 ,則返回 。否則,遞迴
進行求值。
- torch.special.log1p(input, *, out=None) Tensor#
是
torch.log1p()的別名。
- torch.special.log_ndtr(input, *, out=None) Tensor#
逐元素計算標準高斯機率密度函式在從負無窮到
input區域下的面積的對數。示例
>>> torch.special.log_ndtr(torch.tensor([-3., -2, -1, 0, 1, 2, 3])) tensor([-6.6077 -3.7832 -1.841 -0.6931 -0.1728 -0.023 -0.0014])
- torch.special.log_softmax(input, dim, *, dtype=None) Tensor#
計算 softmax 後取對數。
雖然數學上等價於 log(softmax(x)),但分開執行這兩個操作會更慢且數值不穩定。此函式計算如下:
- 引數
input (Tensor) – 輸入
dim (int) – 將在其上計算 log_softmax 的維度。
dtype (
torch.dtype, 可選) – 返回張量的所需資料型別。如果指定,輸入張量將在執行操作之前被轉換為dtype。這有助於防止資料型別溢位。預設值:None。
示例
>>> t = torch.ones(2, 2) >>> torch.special.log_softmax(t, 0) tensor([[-0.6931, -0.6931], [-0.6931, -0.6931]])
- torch.special.logit(input, eps=None, *, out=None) Tensor#
返回一個新的張量,其中包含
input元素的 logit。當 eps 不為 None 時,input會被裁剪到 [eps, 1 - eps]。當 eps 為 None 且input< 0 或input> 1 時,該函式將產生 NaN。- 引數
- 關鍵字引數
out (Tensor, optional) – 輸出張量。
示例
>>> a = torch.rand(5) >>> a tensor([0.2796, 0.9331, 0.6486, 0.1523, 0.6516]) >>> torch.special.logit(a, eps=1e-6) tensor([-0.9466, 2.6352, 0.6131, -1.7169, 0.6261])
- torch.special.logsumexp(input, dim, keepdim=False, *, out=None)#
torch.logsumexp() 的別名。
- torch.special.multigammaln(input, p, *, out=None) Tensor#
計算維度為 的多元對數伽馬函式,逐元素計算,公式如下:
其中 和 是伽馬函式。
所有元素必須大於 ,否則行為未定義。
示例
>>> a = torch.empty(2, 3).uniform_(1, 2) >>> a tensor([[1.6835, 1.8474, 1.1929], [1.0475, 1.7162, 1.4180]]) >>> torch.special.multigammaln(a, 2) tensor([[0.3928, 0.4007, 0.7586], [1.0311, 0.3901, 0.5049]])
- torch.special.ndtr(input, *, out=None) Tensor#
計算標準高斯機率密度函式在從負無窮到
input的區域下的面積,逐元素計算。示例
>>> torch.special.ndtr(torch.tensor([-3., -2, -1, 0, 1, 2, 3])) tensor([0.0013, 0.0228, 0.1587, 0.5000, 0.8413, 0.9772, 0.9987])
- torch.special.ndtri(input, *, out=None) Tensor#
計算高斯機率密度函式(從負無窮到
input積分)的面積等於input的自變數 x,逐元素計算。注意
也稱為正態分佈的 quantile 函式。
示例
>>> torch.special.ndtri(torch.tensor([0, 0.25, 0.5, 0.75, 1])) tensor([ -inf, -0.6745, 0.0000, 0.6745, inf])
- torch.special.polygamma(n, input, *, out=None) Tensor#
計算
input上雙伽馬函式的 ** 階導數。當 時,稱為多伽馬函式的階數。注意
此函式僅對非負整數 實現。
示例
>>> a = torch.tensor([1, 0.5]) >>> torch.special.polygamma(1, a) tensor([1.64493, 4.9348]) >>> torch.special.polygamma(2, a) tensor([ -2.4041, -16.8288]) >>> torch.special.polygamma(3, a) tensor([ 6.4939, 97.4091]) >>> torch.special.polygamma(4, a) tensor([ -24.8863, -771.4742])
- torch.special.round(input, *, out=None) Tensor#
torch.round()的別名。
- torch.special.sinc(input, *, out=None) Tensor#
計算
input的歸一化 sinc 函式。示例
>>> t = torch.randn(4) >>> t tensor([ 0.2252, -0.2948, 1.0267, -1.1566]) >>> torch.special.sinc(t) tensor([ 0.9186, 0.8631, -0.0259, -0.1300])
- torch.special.softmax(input, dim, *, dtype=None) Tensor#
計算 softmax 函式。
Softmax 定義為
它應用於沿 dim 的所有切片,並將它們重新縮放,使元素位於 [0, 1] 範圍內並求和為 1。
- 引數
input (Tensor) – 輸入
dim (int) – 將計算 softmax 的維度。
dtype (
torch.dtype, 可選) – 返回張量的所需資料型別。如果指定,輸入張量將在執行操作之前被轉換為dtype。這有助於防止資料型別溢位。預設值:None。
- 示例:
>>> t = torch.ones(2, 2) >>> torch.special.softmax(t, 0) tensor([[0.5000, 0.5000], [0.5000, 0.5000]])
- torch.special.xlog1py(input, other, *, out=None) Tensor#
計算
input * log1p(other),包含以下情況。與 SciPy 的 scipy.special.xlog1py 類似。
注意
input 或 other 中至少有一個必須是 tensor。
- 關鍵字引數
out (Tensor, optional) – 輸出張量。
示例
>>> x = torch.zeros(5,) >>> y = torch.tensor([-1, 0, 1, float('inf'), float('nan')]) >>> torch.special.xlog1py(x, y) tensor([0., 0., 0., 0., nan]) >>> x = torch.tensor([1, 2, 3]) >>> y = torch.tensor([3, 2, 1]) >>> torch.special.xlog1py(x, y) tensor([1.3863, 2.1972, 2.0794]) >>> torch.special.xlog1py(x, 4) tensor([1.6094, 3.2189, 4.8283]) >>> torch.special.xlog1py(2, y) tensor([2.7726, 2.1972, 1.3863])
- torch.special.xlogy(input, other, *, out=None) Tensor#
計算
input * log(other),具體情況如下。與 SciPy 的 scipy.special.xlogy 類似。
注意
input 或 other 中至少有一個必須是 tensor。
- 關鍵字引數
out (Tensor, optional) – 輸出張量。
示例
>>> x = torch.zeros(5,) >>> y = torch.tensor([-1, 0, 1, float('inf'), float('nan')]) >>> torch.special.xlogy(x, y) tensor([0., 0., 0., 0., nan]) >>> x = torch.tensor([1, 2, 3]) >>> y = torch.tensor([3, 2, 1]) >>> torch.special.xlogy(x, y) tensor([1.0986, 1.3863, 0.0000]) >>> torch.special.xlogy(x, 4) tensor([1.3863, 2.7726, 4.1589]) >>> torch.special.xlogy(2, y) tensor([2.1972, 1.3863, 0.0000])
- torch.special.zeta(input, other, *, out=None) Tensor#
計算 Hurwitz zeta 函式,逐元素進行。
注意
當 q = 1 時,對應於黎曼 zeta 函式。
- 關鍵字引數
out (Tensor, optional) – 輸出張量。
示例
>>> x = torch.tensor([2., 4.]) >>> torch.special.zeta(x, 1) tensor([1.6449, 1.0823]) >>> torch.special.zeta(x, torch.tensor([1., 2.])) tensor([1.6449, 0.0823]) >>> torch.special.zeta(2, torch.tensor([1., 2.])) tensor([1.6449, 0.6449])