論文の概要: DETRs with Hybrid Matching
- arxiv url: http://arxiv.org/abs/2207.13080v2
- Date: Mon, 27 Mar 2023 10:27:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-29 03:03:49.666359
- Title: DETRs with Hybrid Matching
- Title(参考訳): ハイブリッドマッチングを用いたDETR
- Authors: Ding Jia and Yuhui Yuan and Haodi He and Xiaopei Wu and Haojun Yu and
Weihong Lin and Lei Sun and Chao Zhang and Han Hu
- Abstract要約: 1対1のセットマッチングは、DETRがエンドツーエンドの機能を確立するための鍵となる設計である。
本稿では,従来の1対1のマッチングブランチと,トレーニング中に補助的な1対1のマッチングブランチを組み合わせるハイブリッドマッチング方式を提案する。
- 参考スコア(独自算出の注目度): 21.63116788914251
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: One-to-one set matching is a key design for DETR to establish its end-to-end
capability, so that object detection does not require a hand-crafted NMS
(non-maximum suppression) to remove duplicate detections. This end-to-end
signature is important for the versatility of DETR, and it has been generalized
to broader vision tasks. However, we note that there are few queries assigned
as positive samples and the one-to-one set matching significantly reduces the
training efficacy of positive samples. We propose a simple yet effective method
based on a hybrid matching scheme that combines the original one-to-one
matching branch with an auxiliary one-to-many matching branch during training.
Our hybrid strategy has been shown to significantly improve accuracy. In
inference, only the original one-to-one match branch is used, thus maintaining
the end-to-end merit and the same inference efficiency of DETR. The method is
named H-DETR, and it shows that a wide range of representative DETR methods can
be consistently improved across a wide range of visual tasks, including
DeformableDETR, PETRv2, PETR, and TransTrack, among others. The code is
available at: https://github.com/HDETR
- Abstract(参考訳): 1対1のセットマッチングは、DETRがエンドツーエンドの機能を確立するための鍵となる設計であり、オブジェクト検出は重複検出を削除するために手作りのNMS(non-maximum suppress)を必要としない。
このエンドツーエンドのシグネチャは、DETRの汎用性にとって重要であり、より広範なビジョンタスクに一般化されている。
しかし,正のサンプルとして割り当てられたクエリは少なく,一対一のセットマッチングは正のサンプルのトレーニング効果を著しく低下させる。
本稿では,従来の1対1マッチングブランチと補助的な1対多マッチングブランチを組み合わせたハイブリッドマッチング手法を提案する。
我々のハイブリッド戦略は精度を著しく向上することを示した。
推論では、元の1対1マッチングブランチのみを使用し、DETRのエンドツーエンドのメリットと同一の推論効率を維持する。
本手法はH-DETRと命名され,DeformableDETR, PETRv2, PETR, TransTrackなど,幅広い視覚的タスクにおいて多種多様なDETR手法を一貫した改善が可能であることを示す。
コードは、https://github.com/HDETRで入手できる。
関連論文リスト
- MS-DETR: Efficient DETR Training with Mixed Supervision [74.93329653526952]
MS-DETRは、推論に使用されるプライマリデコーダのオブジェクトクエリを1対1で監視する。
このアプローチではデコーダのブランチやオブジェクトクエリを追加する必要はありません。
実験結果から,本手法はDETRの変種よりも優れていることがわかった。
論文 参考訳(メタデータ) (2024-01-08T16:08:53Z) - Semi-DETR: Semi-Supervised Object Detection with Detection Transformers [105.45018934087076]
半教師付き物体検出(SSOD)におけるDETRに基づくフレームワークの解析
本報告では,第1次変圧器を用いたエンド・ツー・エンド半教師対象検出器であるSemi-DETRについて述べる。
我々の手法は、最先端の手法をクリアマージンで上回る。
論文 参考訳(メタデータ) (2023-07-16T16:32:14Z) - FeatAug-DETR: Enriching One-to-Many Matching for DETRs with Feature
Augmentation [48.94488166162821]
1対1のマッチングは、DETRのようなオブジェクト検出フレームワークにおいて重要な設計である。
画像や画像の特徴を拡大する異なる視点から一対一マッチングを実現する2つの手法を提案する。
提案手法の有効性を評価するため, 広範囲な実験を行った。
論文 参考訳(メタデータ) (2023-03-02T18:59:48Z) - Semantic-Aligned Matching for Enhanced DETR Convergence and Multi-Scale
Feature Fusion [95.7732308775325]
提案したDetection TRansformer (DETR) は、オブジェクト検出のための完全なエンドツーエンドパラダイムを確立している。
DETRは遅いトレーニング収束に悩まされており、様々な検出タスクの適用性を妨げている。
我々は,DETRの収束を加速し,検出性能を向上させるためにセマンティック・アラインド・マッチDreTR++を設計する。
論文 参考訳(メタデータ) (2022-07-28T15:34:29Z) - Group DETR: Fast DETR Training with Group-Wise One-to-Many Assignment [80.55064790937092]
複数の予測に1つの基幹オブジェクトを割り当てる1対多の割り当ては、より高速なR-CNNやFCOSのような検出方法に成功している。
グループDETR(Group DETR)は、単純だが効率的なDECRトレーニング手法であり、一対多の割り当てのためのグループワイドな方法を導入する。
実験により、グループDETRはトレーニング収束を著しく高速化し、様々なDETRモデルの性能を向上させることが示された。
論文 参考訳(メタデータ) (2022-07-26T17:57:58Z) - Accelerating DETR Convergence via Semantic-Aligned Matching [50.3633635846255]
本稿では,DTRの精度を犠牲にすることなく,DTRの収束を大幅に加速するセマンティック整合DTRであるSAM-DETRを提案する。
意味整合性マッチングにおいて最も識別性の高い特徴を持つ有能な点を明示的に検索し、収束をさらに高速化し、検出精度も向上する。
論文 参考訳(メタデータ) (2022-03-14T06:50:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。