論文の概要: Enhancing Your Trained DETRs with Box Refinement
- arxiv url: http://arxiv.org/abs/2307.11828v1
- Date: Fri, 21 Jul 2023 18:01:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-25 19:26:46.855280
- Title: Enhancing Your Trained DETRs with Box Refinement
- Title(参考訳): トレーニング済みのDETRをボックスリファインメントで強化する
- Authors: Yiqun Chen, Qiang Chen, Peize Sun, Shoufa Chen, Jingdong Wang, Jian
Cheng
- Abstract要約: 本稿では,DETR型モデルにおける局所化問題に対する概念的,単純,効率的,汎用的な枠組みを提案する。
非効率に新しいモデルを設計し、スクラッチからトレーニングする代わりに、よく訓練されたモデルにプラグインを追加します。
RefineBoxと呼ばれるこの方法は、軽量な精細化ネットワークによってDETRライクな検出器の出力を洗練する。
- 参考スコア(独自算出の注目度): 42.059326857270214
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a conceptually simple, efficient, and general framework for
localization problems in DETR-like models. We add plugins to well-trained
models instead of inefficiently designing new models and training them from
scratch. The method, called RefineBox, refines the outputs of DETR-like
detectors by lightweight refinement networks. RefineBox is easy to implement
and train as it only leverages the features and predicted boxes from the
well-trained detection models. Our method is also efficient as we freeze the
trained detectors during training. In addition, we can easily generalize
RefineBox to various trained detection models without any modification. We
conduct experiments on COCO and LVIS $1.0$. Experimental results indicate the
effectiveness of our RefineBox for DETR and its representative variants (Figure
1). For example, the performance gains for DETR, Conditinal-DETR, DAB-DETR, and
DN-DETR are 2.4 AP, 2.5 AP, 1.9 AP, and 1.6 AP, respectively. We hope our work
will bring the attention of the detection community to the localization
bottleneck of current DETR-like models and highlight the potential of the
RefineBox framework. Code and models will be publicly available at:
\href{https://github.com/YiqunChen1999/RefineBox}{https://github.com/YiqunChen1999/RefineBox}.
- Abstract(参考訳): 本稿では,DETR型モデルにおける局所化問題に対する概念的,単純,効率的,汎用的な枠組みを提案する。
非効率に新しいモデルを設計し、スクラッチからトレーニングする代わりに、よく訓練されたモデルにプラグインを追加します。
RefineBoxと呼ばれるこの方法は、軽量な精細化ネットワークによってDETRライクな検出器の出力を洗練する。
RefineBoxは、よく訓練された検出モデルから機能と予測ボックスのみを活用するため、実装とトレーニングが容易である。
トレーニング中にトレーニングされた検出器を凍結するので,本手法も効率的である。
さらに、RefineBoxを様々な訓練された検出モデルに容易に一般化できます。
我々はCOCOとLVISを1.0$で実験する。
実験結果から,RefineBox for DETRとその代表的変種の有効性が示された(第1報)。
例えば、DETR、Conditinal-DETR、DAB-DETR、DN-DETRのパフォーマンスゲインはそれぞれ2.4 AP、2.5 AP、1.9 AP、1.6 APである。
私たちは、現在のdetrライクなモデルのローカライズボトルネックに検出コミュニティの注意を向け、refineboxフレームワークの可能性を強調したいと考えています。
コードとモデルは以下で公開されている。 \href{https://github.com/YiqunChen 1999/RefineBox}{https://github.com/YiqunChen1999/RefineBox}。
関連論文リスト
- Point2RBox: Combine Knowledge from Synthetic Visual Patterns for End-to-end Oriented Object Detection with Single Point Supervision [81.60564776995682]
我々は、ポイント教師付きオブジェクト検出のためのエンドツーエンドソリューションであるPoint2RBoxを提案する。
提案手法は軽量なパラダイムを用いているが,点教師付き代替品間での競合性能を実現する。
特に,本手法は軽量なパラダイムを用いるが,点教師付き代替品間での競合性能を実現する。
論文 参考訳(メタデータ) (2023-11-23T15:57:41Z) - Unsupervised Out-of-Distribution Detection by Restoring Lossy Inputs
with Variational Autoencoder [3.498694457257263]
OOD検出のための新しいVAEベースのスコアであるError Reduction(ER)を提案する。
ERは、トレーニングセットの損失バージョンを入力として、元のセットをターゲットとして、VAEに基づいています。
論文 参考訳(メタデータ) (2023-09-05T09:42:15Z) - D2Q-DETR: Decoupling and Dynamic Queries for Oriented Object Detection
with Transformers [14.488821968433834]
オブジェクト指向オブジェクト検出のためのエンドツーエンドフレームワークを提案する。
我々のフレームワークはDETRに基づいており、ボックスレグレッションヘッドはポイント予測ヘッドに置き換えられている。
最大かつ挑戦的なDOTA-v1.0データセットとDOTA-v1.5データセットの実験は、D2Q-DETRが既存のNMSベースおよびNMSのないオブジェクト指向オブジェクト検出方法より優れていることを示している。
論文 参考訳(メタデータ) (2023-03-01T14:36:19Z) - Conditional DETR V2: Efficient Detection Transformer with Box Queries [58.9706842210695]
我々は,NMSなどの手作り後処理を必要としないトランスフォーマーエンコーダデコーダアーキテクチャに基づくエンドツーエンドのオブジェクト検出手法に興味がある。
高速なトレーニング収束を備えた改良されたDETRであるConditional DETRにインスパイアされ、オブジェクトクエリを参照ポイントの埋め込みの合成であるボックスクエリの形式に再構成する。
画像の内容からボックスクエリを学習し、高速なトレーニング収束で条件付きDETRの検出品質をさらに向上する。
論文 参考訳(メタデータ) (2022-07-18T20:08:55Z) - QKVA grid: Attention in Image Perspective and Stacked DETR [0.0]
本稿では,標準DETRの主要な概念を継承するStacked-DETR(SDETR)というモデルを提案する。
トレーニングコストの簡易化と,パフォーマンス向上のためのスタックアーキテクチャの導入という,DECを2つの方向に改善する。
論文 参考訳(メタデータ) (2022-07-09T18:05:43Z) - DN-DETR: Accelerate DETR Training by Introducing Query DeNoising [20.589146395352714]
本稿では,DETR(Detection TRansformer)トレーニングを高速化するための新しいトレーニング手法を提案する。
緩やかな収束は二部グラフマッチングの不安定性に起因することを示す。
提案手法は,トランスフォーマーデコーダにノイズを付加した接地境界ボックスを供給し,元のボックスを再構築するモデルを訓練する。
論文 参考訳(メタデータ) (2022-03-02T18:50:23Z) - Ensembling Off-the-shelf Models for GAN Training [55.34705213104182]
事前学習されたコンピュータビジョンモデルは、識別器のアンサンブルで使用する場合、性能を著しく向上させることができる。
本研究では,事前学習したモデル埋め込みにおける実検体と偽検体間の線形分離性を検証し,効率的な選択機構を提案する。
本手法は, 限られたデータと大規模設定の両方において, GAN トレーニングを改善することができる。
論文 参考訳(メタデータ) (2021-12-16T18:59:50Z) - Recurrent Glimpse-based Decoder for Detection with Transformer [85.64521612986456]
本稿では,Recurrent Glimpse-based deoder (REGO)について紹介する。
特に、REGOは多段階のリカレント処理構造を用いて、DETRの注目が徐々に前景オブジェクトに焦点を合わせるのを助ける。
REGOは、異なるDETR検出器の性能を最大7%向上させる。
論文 参考訳(メタデータ) (2021-12-09T00:29:19Z) - DAIS: Automatic Channel Pruning via Differentiable Annealing Indicator
Search [55.164053971213576]
畳み込みニューラルネットワークは,計算オーバーヘッドが大きいにもかかわらず,コンピュータビジョンタスクの実行において大きな成功を収めている。
構造的(チャネル)プルーニングは、通常、ネットワーク構造を保ちながらモデルの冗長性を低減するために適用される。
既存の構造化プルーニング法では、手作りのルールが必要であり、これは大きなプルーニング空間に繋がる可能性がある。
論文 参考訳(メタデータ) (2020-11-04T07:43:01Z) - Deformable DETR: Deformable Transformers for End-to-End Object Detection [41.050320861408046]
DETRは緩やかな収束と限られた特徴空間分解能に悩まされている。
Deformable DETRを提案し、注意モジュールは参照周辺のキーサンプリングポイントの小さなセットにしか対応しない。
変形可能なDETRは10倍のトレーニングエポックでDETRよりも優れたパフォーマンスを実現することができる。
論文 参考訳(メタデータ) (2020-10-08T17:59:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。