論文の概要: Group DETR: Fast Training Convergence with Decoupled One-to-Many Label
Assignment
- arxiv url: http://arxiv.org/abs/2207.13085v1
- Date: Tue, 26 Jul 2022 17:57:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-27 13:06:20.763314
- Title: Group DETR: Fast Training Convergence with Decoupled One-to-Many Label
Assignment
- Title(参考訳): グループDETR:1対1ラベルアサインメントを分離した高速トレーニングコンバージェンス
- Authors: Qiang Chen, Xiaokang Chen, Gang Zeng, Jingdong Wang
- Abstract要約: 我々は,複数の肯定的クエリをサポートする新しいDETRトレーニング手法であるem Group DETRを提案する。
具体的には、正を複数の独立群に分離し、各群に1つの正のgtオブジェクトだけを保持する。
推論では、オブジェクトクエリの1つのグループしか使用せず、アーキテクチャとプロセスの両方を変更することはありません。
- 参考スコア(独自算出の注目度): 50.76338917300473
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Detection Transformer (DETR) relies on One-to-One label assignment, i.e.,
assigning one ground-truth (gt) object to only one positive object query, for
end-to-end object detection and lacks the capability of exploiting multiple
positive queries. We present a novel DETR training approach, named {\em Group
DETR}, to support multiple positive queries. To be specific, we decouple the
positives into multiple independent groups and keep only one positive per gt
object in each group. We make simple modifications during training: (i) adopt
$K$ groups of object queries; (ii) conduct decoder self-attention on each group
of object queries with the same parameters; (iii) perform One-to-One label
assignment for each group, leading to $K$ positive object queries for each gt
object. In inference, we only use one group of object queries, making no
modifications to both architecture and processes. We validate the effectiveness
of the proposed approach on DETR variants, including Conditional DETR,
DAB-DETR, DN-DETR, and DINO.
- Abstract(参考訳): 検出変換器(DETR)は1対1のラベル割り当て、すなわち1つの正のオブジェクトクエリのみに1つの基幹(gt)オブジェクトを割り当てることに依存しており、複数の正のクエリを利用する能力に欠ける。
本稿では,複数の肯定的クエリをサポートする新しいDETRトレーニング手法であるDeTRについて述べる。
具体的には、正を複数の独立群に分離し、各群に1つの正のgtオブジェクトだけを保持する。
訓練中に簡単な修正を加えます
(i) オブジェクトクエリの$k$グループを採用する。
(ii)同じパラメータを持つオブジェクトクエリの各グループに対してデコーダの自己注意を行う。
(iii)各グループに対して1対1のラベル割り当てを行い、各gtオブジェクトに対して1k$の正のオブジェクトクエリを発行する。
推論では、オブジェクトクエリの1つのグループのみを使用し、アーキテクチャとプロセスの両方を変更しません。
本研究では,条件付きDETR,DAB-DETR,DN-DETR,DINOなどのDTR変種に対する提案手法の有効性を検証する。
関連論文リスト
- MS-DETR: Efficient DETR Training with Mixed Supervision [74.93329653526952]
MS-DETRは、推論に使用されるプライマリデコーダのオブジェクトクエリを1対1で監視する。
このアプローチではデコーダのブランチやオブジェクトクエリを追加する必要はありません。
実験結果から,本手法はDETRの変種よりも優れていることがわかった。
論文 参考訳(メタデータ) (2024-01-08T16:08:53Z) - Single-Stage Visual Relationship Learning using Conditional Queries [60.90880759475021]
TraCQは、マルチタスク学習問題とエンティティペアの分布を回避する、シーングラフ生成の新しい定式化である。
我々は,DETRをベースとしたエンコーダ-デコーダ条件付きクエリを用いて,エンティティラベル空間を大幅に削減する。
実験結果から、TraCQは既存のシングルステージシーングラフ生成法よりも優れており、Visual Genomeデータセットの最先端の2段階メソッドを多く上回っていることがわかった。
論文 参考訳(メタデータ) (2023-06-09T06:02:01Z) - Enhancing Few-shot NER with Prompt Ordering based Data Augmentation [59.69108119752584]
本稿では,PODA(Prompt Ordering Based Data Augmentation)手法を提案する。
3つのパブリックNERデータセットの実験結果とさらなる分析により,本手法の有効性が示された。
論文 参考訳(メタデータ) (2023-05-19T16:25:43Z) - FeatAug-DETR: Enriching One-to-Many Matching for DETRs with Feature
Augmentation [48.94488166162821]
1対1のマッチングは、DETRのようなオブジェクト検出フレームワークにおいて重要な設計である。
画像や画像の特徴を拡大する異なる視点から一対一マッチングを実現する2つの手法を提案する。
提案手法の有効性を評価するため, 広範囲な実験を行った。
論文 参考訳(メタデータ) (2023-03-02T18:59:48Z) - Team DETR: Guide Queries as a Professional Team in Detection
Transformers [31.521916994653235]
我々は、クエリの協調と位置制約を活用して、興味のあるオブジェクトをより正確に受け入れるチームDETRを提案する。
また、クエリーメンバーの予測設定を動的に調整し、クエリーのスケールと空間の優先順位をより良くします。
さらに、提案されたTeam DETRは、パラメータや計算量を増やすことなく既存のDETRに適応できるほど柔軟である。
論文 参考訳(メタデータ) (2023-02-14T15:21:53Z) - Pair DETR: Contrastive Learning Speeds Up DETR Training [0.6491645162078056]
本稿では、DreTRの主な問題である緩やかな収束に対処するための簡単なアプローチを提案する。
2つのデコーダを用いて、一対のキーポイント、左上隅、中央としてオブジェクト境界ボックスを検出する。
実験により、Pair DETRは元のDETRより少なくとも10倍早く収束し、トレーニング中にConditional DETRより1.5倍速く収束できることが示された。
論文 参考訳(メタデータ) (2022-10-29T03:02:49Z) - DETRs with Hybrid Matching [21.63116788914251]
1対1のセットマッチングは、DETRがエンドツーエンドの機能を確立するための鍵となる設計である。
本稿では,従来の1対1のマッチングブランチと,トレーニング中に補助的な1対1のマッチングブランチを組み合わせるハイブリッドマッチング方式を提案する。
論文 参考訳(メタデータ) (2022-07-26T17:52:14Z) - UP-DETR: Unsupervised Pre-training for Object Detection with
Transformers [11.251593386108189]
教師なし事前学習型DETR(UP-DETR)におけるランダムクエリパッチ検出という新しいプレテキストタスクを提案する。
具体的には、与えられた画像からパッチをランダムに取り出し、デコーダにクエリとして与えます。
UP-DETRは、より高速な収束とオブジェクト検出、ワンショット検出、パノプティックセグメンテーションにおける平均精度でDETRの性能を大幅に向上させる。
論文 参考訳(メタデータ) (2020-11-18T05:16:11Z) - End-to-End Object Detection with Transformers [88.06357745922716]
本稿では,オブジェクト検出を直接セット予測問題とみなす新しい手法を提案する。
我々のアプローチは検出パイプラインを合理化し、手作業で設計された多くのコンポーネントの必要性を効果的に除去する。
この新しいフレームワークの主な構成要素は、Detection TRansformerまたはDETRと呼ばれ、セットベースのグローバルな損失である。
論文 参考訳(メタデータ) (2020-05-26T17:06:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。