論文の概要: Group DETR: Fast DETR Training with Group-Wise One-to-Many Assignment
- arxiv url: http://arxiv.org/abs/2207.13085v3
- Date: Thu, 31 Aug 2023 04:00:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-01 21:30:49.582244
- Title: Group DETR: Fast DETR Training with Group-Wise One-to-Many Assignment
- Title(参考訳): グループDETR:グループワイズワンマンアサインメントによる高速DETRトレーニング
- Authors: Qiang Chen, Xiaokang Chen, Jian Wang, Shan Zhang, Kun Yao, Haocheng
Feng, Junyu Han, Errui Ding, Gang Zeng, Jingdong Wang
- Abstract要約: 複数の予測に1つの基幹オブジェクトを割り当てる1対多の割り当ては、より高速なR-CNNやFCOSのような検出方法に成功している。
グループDETR(Group DETR)は、単純だが効率的なDECRトレーニング手法であり、一対多の割り当てのためのグループワイドな方法を導入する。
実験により、グループDETRはトレーニング収束を著しく高速化し、様々なDETRモデルの性能を向上させることが示された。
- 参考スコア(独自算出の注目度): 80.55064790937092
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Detection transformer (DETR) relies on one-to-one assignment, assigning one
ground-truth object to one prediction, for end-to-end detection without NMS
post-processing. It is known that one-to-many assignment, assigning one
ground-truth object to multiple predictions, succeeds in detection methods such
as Faster R-CNN and FCOS. While the naive one-to-many assignment does not work
for DETR, and it remains challenging to apply one-to-many assignment for DETR
training. In this paper, we introduce Group DETR, a simple yet efficient DETR
training approach that introduces a group-wise way for one-to-many assignment.
This approach involves using multiple groups of object queries, conducting
one-to-one assignment within each group, and performing decoder self-attention
separately. It resembles data augmentation with automatically-learned object
query augmentation. It is also equivalent to simultaneously training
parameter-sharing networks of the same architecture, introducing more
supervision and thus improving DETR training. The inference process is the same
as DETR trained normally and only needs one group of queries without any
architecture modification. Group DETR is versatile and is applicable to various
DETR variants. The experiments show that Group DETR significantly speeds up the
training convergence and improves the performance of various DETR-based models.
Code will be available at \url{https://github.com/Atten4Vis/GroupDETR}.
- Abstract(参考訳): 検出変換器(DETR)は1対1の割り当てに依存し、NMS後処理なしで1つの接地真実を1つの予測に割り当てる。
複数の予測に1つの基幹オブジェクトを割り当てる1対多の割り当ては、より高速なR-CNNやFCOSなどの検出手法に成功することが知られている。
素直な1対多の割り当てはDETRには有効ではなく、DETRトレーニングに1対多の割り当てを適用することは依然として難しい。
本稿では,1対多の割り当てを行うグループワイドな方法を導入する,単純で効率的なDECRトレーニング手法であるグループDETRを紹介する。
このアプローチでは、複数のオブジェクトクエリのグループを使用し、各グループで1対1の割り当てを実行し、個別にデコーダのセルフアテンションを実行する。
自動学習されたオブジェクトクエリ拡張によるデータ拡張に似ている。
また、同じアーキテクチャのパラメータ共有ネットワークを同時にトレーニングし、より監督し、DETRトレーニングを改善することに等価である。
推論プロセスは普通にトレーニングされたDETRと同じで、アーキテクチャの変更なしにクエリのグループをひとつだけ必要とします。
グループDETRは多用途であり、様々なDETR変種に適用できる。
実験の結果,グループDETRはトレーニング収束を著しく高速化し,様々なDETRモデルの性能向上を図っている。
コードは \url{https://github.com/Atten4Vis/GroupDETR} で入手できる。
関連論文リスト
- MS-DETR: Efficient DETR Training with Mixed Supervision [74.93329653526952]
MS-DETRは、推論に使用されるプライマリデコーダのオブジェクトクエリを1対1で監視する。
このアプローチではデコーダのブランチやオブジェクトクエリを追加する必要はありません。
実験結果から,本手法はDETRの変種よりも優れていることがわかった。
論文 参考訳(メタデータ) (2024-01-08T16:08:53Z) - Single-Stage Visual Relationship Learning using Conditional Queries [60.90880759475021]
TraCQは、マルチタスク学習問題とエンティティペアの分布を回避する、シーングラフ生成の新しい定式化である。
我々は,DETRをベースとしたエンコーダ-デコーダ条件付きクエリを用いて,エンティティラベル空間を大幅に削減する。
実験結果から、TraCQは既存のシングルステージシーングラフ生成法よりも優れており、Visual Genomeデータセットの最先端の2段階メソッドを多く上回っていることがわかった。
論文 参考訳(メタデータ) (2023-06-09T06:02:01Z) - Enhancing Few-shot NER with Prompt Ordering based Data Augmentation [59.69108119752584]
本稿では,PODA(Prompt Ordering Based Data Augmentation)手法を提案する。
3つのパブリックNERデータセットの実験結果とさらなる分析により,本手法の有効性が示された。
論文 参考訳(メタデータ) (2023-05-19T16:25:43Z) - FeatAug-DETR: Enriching One-to-Many Matching for DETRs with Feature
Augmentation [48.94488166162821]
1対1のマッチングは、DETRのようなオブジェクト検出フレームワークにおいて重要な設計である。
画像や画像の特徴を拡大する異なる視点から一対一マッチングを実現する2つの手法を提案する。
提案手法の有効性を評価するため, 広範囲な実験を行った。
論文 参考訳(メタデータ) (2023-03-02T18:59:48Z) - Team DETR: Guide Queries as a Professional Team in Detection
Transformers [31.521916994653235]
我々は、クエリの協調と位置制約を活用して、興味のあるオブジェクトをより正確に受け入れるチームDETRを提案する。
また、クエリーメンバーの予測設定を動的に調整し、クエリーのスケールと空間の優先順位をより良くします。
さらに、提案されたTeam DETRは、パラメータや計算量を増やすことなく既存のDETRに適応できるほど柔軟である。
論文 参考訳(メタデータ) (2023-02-14T15:21:53Z) - Pair DETR: Contrastive Learning Speeds Up DETR Training [0.6491645162078056]
本稿では、DreTRの主な問題である緩やかな収束に対処するための簡単なアプローチを提案する。
2つのデコーダを用いて、一対のキーポイント、左上隅、中央としてオブジェクト境界ボックスを検出する。
実験により、Pair DETRは元のDETRより少なくとも10倍早く収束し、トレーニング中にConditional DETRより1.5倍速く収束できることが示された。
論文 参考訳(メタデータ) (2022-10-29T03:02:49Z) - DETRs with Hybrid Matching [21.63116788914251]
1対1のセットマッチングは、DETRがエンドツーエンドの機能を確立するための鍵となる設計である。
本稿では,従来の1対1のマッチングブランチと,トレーニング中に補助的な1対1のマッチングブランチを組み合わせるハイブリッドマッチング方式を提案する。
論文 参考訳(メタデータ) (2022-07-26T17:52:14Z) - UP-DETR: Unsupervised Pre-training for Object Detection with
Transformers [11.251593386108189]
教師なし事前学習型DETR(UP-DETR)におけるランダムクエリパッチ検出という新しいプレテキストタスクを提案する。
具体的には、与えられた画像からパッチをランダムに取り出し、デコーダにクエリとして与えます。
UP-DETRは、より高速な収束とオブジェクト検出、ワンショット検出、パノプティックセグメンテーションにおける平均精度でDETRの性能を大幅に向上させる。
論文 参考訳(メタデータ) (2020-11-18T05:16:11Z) - End-to-End Object Detection with Transformers [88.06357745922716]
本稿では,オブジェクト検出を直接セット予測問題とみなす新しい手法を提案する。
我々のアプローチは検出パイプラインを合理化し、手作業で設計された多くのコンポーネントの必要性を効果的に除去する。
この新しいフレームワークの主な構成要素は、Detection TRansformerまたはDETRと呼ばれ、セットベースのグローバルな損失である。
論文 参考訳(メタデータ) (2020-05-26T17:06:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。