論文の概要: Dynamic Sparse R-CNN
- arxiv url: http://arxiv.org/abs/2205.02101v1
- Date: Wed, 4 May 2022 14:56:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-05 13:39:14.623073
- Title: Dynamic Sparse R-CNN
- Title(参考訳): ダイナミックスパースR-CNN
- Authors: Qinghang Hong, Fengming Liu, Dong Li, Ji Liu, Lu Tian, Yi Shan
- Abstract要約: Sparse R-CNNは、スパースで学習可能な提案ボックスと提案機能のセット予測による、最近の強力なオブジェクト検出ベースラインである。
2つの動的特徴を持つスパースR-CNNを改善するための2つの動的設計を提案する。
実験により,動的スパースR-CNNと呼ばれる手法は,オブジェクト検出のための異なるバックボーンを持つ強力なスパースR-CNNベースラインを向上できることが示された。
- 参考スコア(独自算出の注目度): 20.51525561016167
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Sparse R-CNN is a recent strong object detection baseline by set prediction
on sparse, learnable proposal boxes and proposal features. In this work, we
propose to improve Sparse R-CNN with two dynamic designs. First, Sparse R-CNN
adopts a one-to-one label assignment scheme, where the Hungarian algorithm is
applied to match only one positive sample for each ground truth. Such
one-to-one assignment may not be optimal for the matching between the learned
proposal boxes and ground truths. To address this problem, we propose dynamic
label assignment (DLA) based on the optimal transport algorithm to assign
increasing positive samples in the iterative training stages of Sparse R-CNN.
We constrain the matching to be gradually looser in the sequential stages as
the later stage produces the refined proposals with improved precision. Second,
the learned proposal boxes and features remain fixed for different images in
the inference process of Sparse R-CNN. Motivated by dynamic convolution, we
propose dynamic proposal generation (DPG) to assemble multiple proposal experts
dynamically for providing better initial proposal boxes and features for the
consecutive training stages. DPG thereby can derive sample-dependent proposal
boxes and features for inference. Experiments demonstrate that our method,
named Dynamic Sparse R-CNN, can boost the strong Sparse R-CNN baseline with
different backbones for object detection. Particularly, Dynamic Sparse R-CNN
reaches the state-of-the-art 47.2% AP on the COCO 2017 validation set,
surpassing Sparse R-CNN by 2.2% AP with the same ResNet-50 backbone.
- Abstract(参考訳): Sparse R-CNNは、スパースで学習可能な提案ボックスと提案機能のセット予測による、最近の強力なオブジェクト検出ベースラインである。
本研究では2つの動的設計によるスパースR-CNNの改良を提案する。
まず、スパース r-cnn は1対1のラベル割り当てスキームを採用し、ハンガリーのアルゴリズムは各基底真理に対して1つの正のサンプルだけをマッチングするために適用される。
このような一対一の割り当ては、学習されたプロポーザルボックスと基底真理のマッチングに最適ではないかもしれない。
この問題に対処するため,Sparse R-CNNの反復学習段階において,増加傾向を示すサンプルを割り当てる最適な輸送アルゴリズムに基づく動的ラベル割り当て(DLA)を提案する。
我々は、後段が精度を向上した改良された提案を生成するため、逐次段階においてマッチングが徐々に緩くなるように制約する。
第2に、Sparse R-CNNの推論プロセスにおいて、学習した提案ボックスと機能は、異なる画像に対して固定されている。
動的畳み込みによって動機付けられた動的提案生成(DPG)を提案し、複数の提案エキスパートを動的に組み立て、より優れた初期提案ボックスと連続訓練段階の機能を提供する。
従って、DPGはサンプル依存の提案ボックスと推論の機能を引き出すことができる。
実験により,動的スパースR-CNNと呼ばれる手法は,オブジェクト検出のための異なるバックボーンを持つ強力なスパースR-CNNベースラインを向上できることが示された。
特に、Dynamic Sparse R-CNNは、CoCO 2017の検証セットで最先端の47.2% APに達し、同じResNet-50バックボーンを持つSparse R-CNNの2.2% APを上回っている。
関連論文リスト
- Towards Hyperparameter-Agnostic DNN Training via Dynamical System
Insights [4.513581513983453]
本稿では,ディープニューラルネットワーク(DNN),ECCO-DNNに特化した一階最適化手法を提案する。
本手法は, 最適変数軌道を動的システムとしてモデル化し, 軌道形状に基づいてステップサイズを適応的に選択する離散化アルゴリズムを開発する。
論文 参考訳(メタデータ) (2023-10-21T03:45:13Z) - BNN-DP: Robustness Certification of Bayesian Neural Networks via Dynamic
Programming [8.162867143465382]
ベイジアンニューラルネットワークの対向ロバスト性解析のための効率的なフレームワークであるBNN-DPを紹介する。
BNN-DPは, 境界の厳密性と計算効率の両面において, 最先端の手法を最大4桁上回る性能を示した。
論文 参考訳(メタデータ) (2023-06-19T07:19:15Z) - Revisiting k-NN for Fine-tuning Pre-trained Language Models [25.105882538429743]
我々は PLM ベースの分類器を強化するために k-Nearest-Neighbor (kNN) 分類器を再検討する。
我々のアプローチの核心は、予測結果を簡単な例と難しい例の指標として扱うkNN校正トレーニングの実装である。
我々は、微調整、急速調整、ゼロショット、少数ショット、完全教師付き設定に関する広範な実験を行う。
論文 参考訳(メタデータ) (2023-04-18T15:28:47Z) - Optimising Event-Driven Spiking Neural Network with Regularisation and
Cutoff [33.91830001268308]
スパイキングニューラルネットワーク(SNN)は、計算効率を有望に改善する。
現在のSNNトレーニング手法は、主に固定時間ステップアプローチを採用している。
本稿では,効率的な推論を実現するために,推論中にいつでもSNNを終了できるSNNの遮断を検討することを提案する。
論文 参考訳(メタデータ) (2023-01-23T16:14:09Z) - Recurrent Bilinear Optimization for Binary Neural Networks [58.972212365275595]
BNNは、実数値重みとスケールファクターの内在的双線型関係を無視している。
私たちの仕事は、双線形の観点からBNNを最適化する最初の試みです。
我々は、様々なモデルやデータセット上で最先端のBNNに対して印象的な性能を示す頑健なRBONNを得る。
論文 参考訳(メタデータ) (2022-09-04T06:45:33Z) - Sequence Transduction with Graph-based Supervision [96.04967815520193]
ラベルのグラフ表現を受け入れるためにRNN-T損失を一般化するトランスデューサ目的関数を提案する。
CTC型格子を用いたトランスデューサベースのASRは,標準RNN-Tよりも優れた結果が得られることを示す。
論文 参考訳(メタデータ) (2021-11-01T21:51:42Z) - RoMA: Robust Model Adaptation for Offline Model-based Optimization [115.02677045518692]
入力出力クエリの静的データセットからブラックボックス目的関数を最大化する入力を探索する問題を考える。
この問題を解決するための一般的なアプローチは、真の客観的関数を近似するプロキシモデルを維持することである。
ここでの大きな課題は、検索中に逆最適化された入力を避ける方法である。
論文 参考訳(メタデータ) (2021-10-27T05:37:12Z) - Adaptive Nearest Neighbor Machine Translation [60.97183408140499]
kNN-MTは、事前訓練されたニューラルネットワーク翻訳とトークンレベルのk-nearest-neighbor検索を組み合わせる。
従来のkNNアルゴリズムは、ターゲットトークンごとに同じ数の近傍を検索する。
ターゲットトークン毎のk個数を動的に決定する適応的kNN-MTを提案する。
論文 参考訳(メタデータ) (2021-05-27T09:27:42Z) - A Progressive Sub-Network Searching Framework for Dynamic Inference [33.93841415140311]
本稿では、トレーニング可能なノイズランキング、チャネルグループ、微調整しきい値設定、サブネット再選択など、いくつかの効果的な手法を組み込んだプログレッシブサブネット探索フレームワークを提案する。
提案手法は,従来普及していたUniversally-Slimmable-Networkの4.4%と平均2.3%と,モデルサイズが同じであるImageNetデータセットと比較して,より優れた動的推論精度を実現する。
論文 参考訳(メタデータ) (2020-09-11T22:56:02Z) - Policy-GNN: Aggregation Optimization for Graph Neural Networks [60.50932472042379]
グラフニューラルネットワーク(GNN)は、局所的なグラフ構造をモデル化し、隣人からの情報を集約することで階層的なパターンを捉えることを目的としている。
複雑なグラフとスパースな特徴を与えられた各ノードに対して効果的なアグリゲーション戦略を開発することは難しい課題である。
本稿では,GNNのサンプリング手順とメッセージパッシングを複合学習プロセスにモデル化するメタ政治フレームワークであるPolicy-GNNを提案する。
論文 参考訳(メタデータ) (2020-06-26T17:03:06Z) - Dynamic R-CNN: Towards High Quality Object Detection via Dynamic
Training [70.2914594796002]
ラベル割り当て基準と回帰損失関数の形状を調整するための動的R-CNNを提案する。
我々はResNet-50-FPNベースラインを1.9%のAPと5.5%のAP$_90$で改善し、余分なオーバーヘッドを伴わない。
論文 参考訳(メタデータ) (2020-04-13T15:20:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。