論文の概要: Work-Efficient Parallel Non-Maximum Suppression Kernels
- arxiv url: http://arxiv.org/abs/2502.00535v1
- Date: Sat, 01 Feb 2025 19:23:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-05 14:56:57.124261
- Title: Work-Efficient Parallel Non-Maximum Suppression Kernels
- Title(参考訳): 作業効率の良い並列非最大抑圧カーネル
- Authors: David Oro, Carles Fernández, Xavier Martorell, Javier Hernando,
- Abstract要約: 非最大抑圧(Non-Maximum Suppression、NMS)は、検出クラスタ内の単一の代表候補を選択するプロセスである。
我々は、数千の同時検出を備えたワークロードを処理するために、スクラッチから設計された組み込みGPUアーキテクチャのための高度にスケーラブルなNMSアルゴリズムを提案する。
提案した並列グリードNMSアルゴリズムは,最先端NMS法と比較して14x-40xの高速化を実現している。
- 参考スコア(独自算出の注目度): 8.872464006522929
- License:
- Abstract: In the context of object detection, sliding-window classifiers and single-shot Convolutional Neural Network (CNN) meta-architectures typically yield multiple overlapping candidate windows with similar high scores around the true location of a particular object. Non-Maximum Suppression (NMS) is the process of selecting a single representative candidate within this cluster of detections, so as to obtain a unique detection per object appearing on a given picture. In this paper, we present a highly scalable NMS algorithm for embedded GPU architectures that is designed from scratch to handle workloads featuring thousands of simultaneous detections on a given picture. Our kernels are directly applicable to other sequential NMS algorithms such as FeatureNMS, Soft-NMS or AdaptiveNMS that share the inner workings of the classic greedy NMS method. The obtained performance results show that our parallel NMS algorithm is capable of clustering 1024 simultaneous detected objects per frame in roughly 1 ms on both NVIDIA Tegra X1 and NVIDIA Tegra X2 on-die GPUs, while taking 2 ms on NVIDIA Tegra K1. Furthermore, our proposed parallel greedy NMS algorithm yields a 14x-40x speed up when compared to state-of-the-art NMS methods that require learning a CNN from annotated data.
- Abstract(参考訳): オブジェクト検出の文脈では、スライドウインドウ分類器とシングルショット畳み込みニューラルネットワーク(CNN)メタアーキテクチャは、通常、特定のオブジェクトの真の位置に関する同様の高いスコアを持つ複数の重なり合う候補ウィンドウを生成する。
非最大抑圧(英: Non-Maximum Suppression、NMS)とは、与えられた画像に現れる対象ごとに一意な検出を得るために、この検出クラスタ内の単一の代表候補を選択するプロセスである。
本稿では,画像上の数千の同時検出を特徴とするワークロードを処理するために,スクラッチから設計した組込みGPUアーキテクチャのための高度にスケーラブルなNMSアルゴリズムを提案する。
我々のカーネルは、古典的なgreedy NMSメソッドの内部構造を共有するFeatureNMS、Soft-NMS、AdaptiveNMSといった他のシーケンシャルなNMSアルゴリズムに直接適用できます。
その結果,並列NMSアルゴリズムはNVIDIA Tegra X1とNVIDIA Tegra X2の両方のGPU上で,約1msで1フレーム当たり1024個の同時検出オブジェクトをクラスタリングでき,NVIDIA Tegra K1では2msで処理可能であることがわかった。
さらに,提案した並列グリードNMSアルゴリズムは,注釈付きデータからCNNを学習する必要のある最先端NMS法と比較して14x-40xの高速化を実現する。
関連論文リスト
- Accelerating Non-Maximum Suppression: A Graph Theory Perspective [24.34791528442417]
非最大抑圧(NMS)は、オブジェクト検出において必要不可欠な後処理ステップである。
本稿では,NMSをグラフ理論の観点から初めて体系的に解析し,その固有構造を明らかにする。
NMS-Benchは,様々なNMS手法を包括的に評価する最初のベンチマークである。
論文 参考訳(メタデータ) (2024-09-30T17:20:49Z) - Fast, nonlocal and neural: a lightweight high quality solution to image
denoising [19.306450225657414]
畳み込みニューラルネットワーク(CNN)は、モデルベースの復調アルゴリズムにより、今やパフォーマンスが向上している。
本稿では,非局所アルゴリズムと軽量残差CNNを組み合わせた解を提案する。
提案手法はCNNの10倍から20倍の高速化を実現し,PSNRが向上した。
論文 参考訳(メタデータ) (2024-03-06T06:12:56Z) - INK: Injecting kNN Knowledge in Nearest Neighbor Machine Translation [57.952478914459164]
kNN-MTは、推論中に隣接する表現に基づいて予測を円滑にするための効果的なパラダイムを提供する。
我々は,kNN近傍の表現を少数の新しいパラメータで調整することで,表現空間を円滑にするための効果的なトレーニングフレームワークINKを提案する。
4つのベンチマークデータセットでの実験では、メソッドは1.99 COMETと1.0 BLEUの平均ゲインを達成し、0.02倍のメモリ空間と1.9倍の推論速度を持つ最先端のkNN-MTシステムより優れていた。
論文 参考訳(メタデータ) (2023-06-10T08:39:16Z) - Lightweight Salient Object Detection in Optical Remote-Sensing Images
via Semantic Matching and Edge Alignment [61.45639694373033]
セマンティックマッチングとエッジアライメントに基づく光リモートセンシング画像(ORSI-SOD)のための新しい軽量ネットワークSeaNetを提案する。
具体的には、機能抽出のための軽量MobileNet-V2、高レベルの機能のための動的セマンティックマッチングモジュール(DSMM)、推論のためのポータブルデコーダが含まれる。
論文 参考訳(メタデータ) (2023-01-07T04:33:51Z) - EAutoDet: Efficient Architecture Search for Object Detection [110.99532343155073]
EAutoDetフレームワークは、1.4GPU日でオブジェクト検出のための実用的なバックボーンとFPNアーキテクチャを検出できる。
本稿では,一方のエッジ上での候補演算の重みを共有し,それらを一つの畳み込みに集約することでカーネル再利用手法を提案する。
特に、発見されたアーキテクチャは最先端のオブジェクト検出NAS法を超越し、120 FPSで40.1 mAP、49.2 mAP、41.3 FPSをCOCOテストデブセットで達成している。
論文 参考訳(メタデータ) (2022-03-21T05:56:12Z) - Sub-bit Neural Networks: Learning to Compress and Accelerate Binary
Neural Networks [72.81092567651395]
Sub-bit Neural Networks (SNN) は、BNNの圧縮と高速化に適した新しいタイプのバイナリ量子化設計である。
SNNは、微細な畳み込みカーネル空間におけるバイナリ量子化を利用するカーネル対応最適化フレームワークで訓練されている。
ビジュアル認識ベンチマークの実験とFPGA上でのハードウェア展開は、SNNの大きな可能性を検証する。
論文 参考訳(メタデータ) (2021-10-18T11:30:29Z) - GrooMeD-NMS: Grouped Mathematically Differentiable NMS for Monocular 3D
Object Detection [25.313894069303718]
GrooMeD-NMS - 単分子3D物体検出のための新しいグループ数学的微分可能なNMS - を提示し、統合する。
GrooMeD-NMSはトレーニングパイプラインと推論パイプラインのミスマッチに対処する。
KITTIベンチマークデータセット上で、最先端のモノクル3Dオブジェクト検出結果を達成する。
論文 参考訳(メタデータ) (2021-03-31T16:29:50Z) - Learning Versatile Neural Architectures by Propagating Network Codes [74.2450894473073]
アーキテクチャの性能を複数のデータセットやタスクで予測できる新しい「神経予測器」を提案する。
ncpはネットワークコードから学習するが、オリジナルデータではないため、データセット間で効率的にアーキテクチャを更新することができる。
論文 参考訳(メタデータ) (2021-03-24T15:20:38Z) - Object Detection Made Simpler by Eliminating Heuristic NMS [70.93004137521946]
単純なNMSのないエンドツーエンドのオブジェクト検出フレームワークを示す。
検出精度は元の1段検出器と比べて同等か、さらに向上した。
論文 参考訳(メタデータ) (2021-01-28T02:38:29Z) - ASAP-NMS: Accelerating Non-Maximum Suppression Using Spatially Aware
Priors [26.835571059909007]
非最大抑圧(Non Maximum Suppression、またはGreedy-NMS)は、オブジェクト検出パイプラインにとって重要なモジュールである。
2段/複数段検出器の領域提案段階において、NMSはそのシーケンシャルな性質から遅延ボトルネックであることが判明した。
我々は、最先端の2段検出器の精度を犠牲にすることなく、CPU上でのNMSステップのレイテンシを13.6msから1.2msに改善するためにASAP-NMSを使用する。
論文 参考訳(メタデータ) (2020-07-19T21:15:48Z) - Visibility Guided NMS: Efficient Boosting of Amodal Object Detection in
Crowded Traffic Scenes [7.998326245039892]
現代の2Dオブジェクト検出フレームワークは、NMS(Non-Maximum-Suppression)を使用して洗練されたオブジェクトごとの複数のバウンディングボックスを予測し、1つのバウンディングボックスを除くすべてのバウンディングボックスを抑圧する。
我々の新しいVisibility Guided NMS(vg-NMS)は、ピクセルベースとアモーダルオブジェクト検出パラダイムの両方を活用し、特に計算オーバーヘッドの少ない高いオブジェクトに対して検出性能を向上させる。
我々は、KITTI、VIPER、Synscapesデータセットを用いてvg-NMSを評価し、現在の最先端NMSよりも優れていることを示す。
論文 参考訳(メタデータ) (2020-06-15T17:03:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。