論文の概要: PSRR-MaxpoolNMS: Pyramid Shifted MaxpoolNMS with Relationship Recovery
- arxiv url: http://arxiv.org/abs/2105.12990v1
- Date: Thu, 27 May 2021 08:24:21 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-28 16:21:06.837498
- Title: PSRR-MaxpoolNMS: Pyramid Shifted MaxpoolNMS with Relationship Recovery
- Title(参考訳): PSRR-MaxpoolNMS: ピラミッドシフトマックスプールNMSとリレーショナルリカバリ
- Authors: Tianyi Zhang, Jie Lin, Peng Hu, Bin Zhao, Mohamed M. Sabry Aly
- Abstract要約: 非最大抑圧(NMS)は、オブジェクト検出のための現代の畳み込みニューラルネットワークにおいて、重要な後処理ステップである。
NMSのデファクト標準、すなわちGreedyNMSは容易に並列化できない。
MaxpoolNMSはGreedyNMSの並列化可能な代替として導入された。
- 参考スコア(独自算出の注目度): 17.704037442897004
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Non-maximum Suppression (NMS) is an essential postprocessing step in modern
convolutional neural networks for object detection. Unlike convolutions which
are inherently parallel, the de-facto standard for NMS, namely GreedyNMS,
cannot be easily parallelized and thus could be the performance bottleneck in
convolutional object detection pipelines. MaxpoolNMS is introduced as a
parallelizable alternative to GreedyNMS, which in turn enables faster speed
than GreedyNMS at comparable accuracy. However, MaxpoolNMS is only capable of
replacing the GreedyNMS at the first stage of two-stage detectors like
Faster-RCNN. There is a significant drop in accuracy when applying MaxpoolNMS
at the final detection stage, due to the fact that MaxpoolNMS fails to
approximate GreedyNMS precisely in terms of bounding box selection. In this
paper, we propose a general, parallelizable and configurable approach
PSRR-MaxpoolNMS, to completely replace GreedyNMS at all stages in all
detectors. By introducing a simple Relationship Recovery module and a Pyramid
Shifted MaxpoolNMS module, our PSRR-MaxpoolNMS is able to approximate GreedyNMS
more precisely than MaxpoolNMS. Comprehensive experiments show that our
approach outperforms MaxpoolNMS by a large margin, and it is proven faster than
GreedyNMS with comparable accuracy. For the first time, PSRR-MaxpoolNMS
provides a fully parallelizable solution for customized hardware design, which
can be reused for accelerating NMS everywhere.
- Abstract(参考訳): 非最大抑圧(NMS)は、オブジェクト検出のための現代の畳み込みニューラルネットワークにおいて重要な後処理ステップである。
本質的に並列な畳み込みとは異なり、NMSのデファクト標準であるGreedyNMSは容易に並列化できないため、畳み込みオブジェクト検出パイプラインのパフォーマンスボトルネックになる可能性がある。
maxpoolnms は greedynms の並列化可能な代替として導入されており、同等の精度で greedynms よりも高速な速度を実現している。
しかし、マクスプールNMSは、Faster-RCNNのような2段検出器の最初の段階で、グレディNMSを置き換える能力しか持たない。
最終検出段階でmaxpoolnmsを適用する場合、maxpoolnmsが境界ボックス選択の観点で正確にグレジンを近似できないため、精度が大幅に低下する。
本稿では,すべての検出器においてGreedyNMSを完全に置き換える汎用的で並列化可能なPSRR-MaxpoolNMSを提案する。
単純なリレーション・リカバリ・モジュールとピラミッドシフトのMaxpoolNMSモジュールを導入することで、我々のPSRR-MaxpoolNMSはGreedyNMSをMaxpoolNMSよりも正確に近似することができる。
総合的な実験により,本手法はMaxpoolNMSよりも大きなマージンで優れており,GreedyNMSよりも精度が高いことが確認された。
初めてPSRR-MaxpoolNMSは、カスタマイズされたハードウェア設計のための完全に並列化可能なソリューションを提供する。
関連論文リスト
- Accelerating Non-Maximum Suppression: A Graph Theory Perspective [24.34791528442417]
非最大抑圧(NMS)は、オブジェクト検出において必要不可欠な後処理ステップである。
本稿では,NMSをグラフ理論の観点から初めて体系的に解析し,その固有構造を明らかにする。
NMS-Benchは,様々なNMS手法を包括的に評価する最初のベンチマークである。
論文 参考訳(メタデータ) (2024-09-30T17:20:49Z) - MCU-MixQ: A HW/SW Co-optimized Mixed-precision Neural Network Design Framework for MCUs [9.719789698194154]
ニューラルネットワーク処理に十分なデータ幅を利用する混合精度ニューラルネットワーク(MPNN)は、厳密なリソース制約を満たすための効果的なアプローチである。
しかし、MCUクラスのISAにはサブバイトと混合精度のSIMD操作がない。
本研究では,複数の低ビット幅演算を単一の命令多重データ(SIMD)命令にパックする手法を提案する。
論文 参考訳(メタデータ) (2024-07-17T14:51:15Z) - Freya PAGE: First Optimal Time Complexity for Large-Scale Nonconvex Finite-Sum Optimization with Heterogeneous Asynchronous Computations [92.1840862558718]
実用的な分散システムでは、労働者は概して均質ではなく、非常に多様な処理時間を持つ。
本稿では、任意に遅い計算を扱うための新しい並列手法Freyaを提案する。
Freyaは従来の手法と比較して,複雑性の保証が大幅に向上していることを示す。
論文 参考訳(メタデータ) (2024-05-24T13:33:30Z) - Distributed Extra-gradient with Optimal Complexity and Communication
Guarantees [60.571030754252824]
複数のプロセッサ/ワーカー/クライアントがローカルなデュアルベクトルにアクセス可能なマルチGPU設定において、モノトン変分不等式(VI)問題を考察する。
モノトーンVI問題に対するデファクトアルゴリズムであるExtra-gradientは、通信効率が良くないように設計されている。
そこで本稿では,VI の解法に適した非バイアスで適応的な圧縮手法である量子化一般化外部勾配 (Q-GenX) を提案する。
論文 参考訳(メタデータ) (2023-08-17T21:15:04Z) - ANMS: Asynchronous Non-Maximum Suppression in Event Stream [15.355579943905585]
非最大抑圧(NMS)は、フレームベースのタスクにおいて重要な後処理アルゴリズムとして広く使われている。
本稿では、汎用非同期非最大抑圧パイプライン(ANMS)を提案する。
提案したパイプラインは、元の検出器の出力から微細な特徴ストリームを抽出し、動きの速度に適応する。
論文 参考訳(メタデータ) (2023-03-19T05:33:32Z) - SymNMF-Net for The Symmetric NMF Problem [62.44067422984995]
我々は,Symmetric NMF問題に対するSymNMF-Netと呼ばれるニューラルネットワークを提案する。
各ブロックの推測は最適化の単一イテレーションに対応することを示す。
実世界のデータセットに関する実証的な結果は、我々のSymNMF-Netの優位性を示している。
論文 参考訳(メタデータ) (2022-05-26T08:17:39Z) - ISDA: Position-Aware Instance Segmentation with Deformable Attention [4.188555841288538]
我々はISDAと呼ばれる新しいエンドツーエンドのインスタンスセグメンテーション手法を提案する。
従来の畳み込み操作によって生成されるオブジェクトマスクのセットを予測するために、タスクを再設定する。
提案手法は, セット予測機構によりNMSフリーである。
論文 参考訳(メタデータ) (2022-02-23T12:30:18Z) - Positive-Negative Momentum: Manipulating Stochastic Gradient Noise to
Improve Generalization [89.7882166459412]
勾配雑音(SGN)は、ディープラーニングの暗黙の正規化として機能する。
深層学習を改善するためにランダムノイズを注入してSGNを人工的にシミュレートしようとした作品もある。
低計算コストでSGNをシミュレーションし、学習率やバッチサイズを変更することなく、PNM(Positive-Negative Momentum)アプローチを提案する。
論文 参考訳(メタデータ) (2021-03-31T16:08:06Z) - End-to-End Object Detection with Fully Convolutional Network [71.56728221604158]
エンドツーエンド検出を実現するために,分類のための予測対応ワン・ツー・ワン (POTO) ラベルの割り当てを導入する。
局所領域における畳み込みの判別性を向上させるために, 簡易な3次元maxフィルタ(3dmf)を提案する。
エンドツーエンドのフレームワークは,COCOおよびCrowdHumanデータセット上のNMSを用いて,最先端の多くの検出器と競合する性能を実現する。
論文 参考訳(メタデータ) (2020-12-07T09:14:55Z) - ASAP-NMS: Accelerating Non-Maximum Suppression Using Spatially Aware
Priors [26.835571059909007]
非最大抑圧(Non Maximum Suppression、またはGreedy-NMS)は、オブジェクト検出パイプラインにとって重要なモジュールである。
2段/複数段検出器の領域提案段階において、NMSはそのシーケンシャルな性質から遅延ボトルネックであることが判明した。
我々は、最先端の2段検出器の精度を犠牲にすることなく、CPU上でのNMSステップのレイテンシを13.6msから1.2msに改善するためにASAP-NMSを使用する。
論文 参考訳(メタデータ) (2020-07-19T21:15:48Z) - BLK-REW: A Unified Block-based DNN Pruning Framework using Reweighted
Regularization Method [69.49386965992464]
本稿では, 汎用的かつ柔軟な構造化プルーニング次元と, 強力かつ効率的な再加重正規化手法を組み合わせたブロック型プルーニングフレームワークを提案する。
我々のフレームワークは普遍的であり、CNNとRNNの両方に適用できる。
リアルタイムモバイルアクセラレーションと精度の妥協のないCNNとRNNの共通カバレッジを実現するのはこれが初めてである。
論文 参考訳(メタデータ) (2020-01-23T03:30:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。