ps_roi_align¶
- torchvision.ops.ps_roi_align(input: Tensor, boxes: Tensor, output_size: int, spatial_scale: float = 1.0, sampling_ratio: int = - 1) Tensor[原始碼]¶
執行 Light-Head R-CNN 中提到的位置敏感區域感興趣 (RoI) 對齊運算元。
- 引數:
input (Tensor[N, C, H, W]) – 輸入張量,即包含
N個元素的批次。每個元素包含C個維度為H x W的特徵圖。boxes (Tensor[K, 5] 或 List[Tensor[L, 4]]) – 區域將從中提取的 (x1, y1, x2, y2) 格式的邊界框座標。座標必須滿足
0 <= x1 < x2和0 <= y1 < y2。如果傳入單個 Tensor,則第一列應包含批次中相應元素的索引,即[0, N - 1]中的數字。如果傳入 Tensor 列表,則每個 Tensor 將對應於批次中元素 i 的邊界框。output_size (int or Tuple[int, int]) – 池化操作後輸出的大小(以 bin 或畫素為單位),格式為 (height, width)。
spatial_scale (float) – 將邊界框座標對映到輸入座標的縮放因子。例如,如果您的邊界框定義在 224x224 影像的尺度上,而您的輸入是 112x112 的特徵圖(由於原始影像縮放了 0.5 倍),您應該將此設定為 0.5。預設值:1.0
sampling_ratio (int) – 用於計算每個池化輸出 bin 的輸出值的插值網格中的取樣點數。如果大於 0,則每個 bin 使用
sampling_ratio x sampling_ratio個取樣點。如果小於等於 0,則使用自適應數量的網格點(計算為ceil(roi_width / output_width),高度也類似)。預設為 -1。
- 返回:
池化後的 RoIs
- 返回型別:
Tensor[K, C / (output_size[0] * output_size[1]), output_size[0], output_size[1]]