論文の概要: Teach-DETR: Better Training DETR with Teachers
- arxiv url: http://arxiv.org/abs/2211.11953v1
- Date: Tue, 22 Nov 2022 02:16:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-23 17:53:48.806436
- Title: Teach-DETR: Better Training DETR with Teachers
- Title(参考訳): Teach-DETR: 教師によるより良いトレーニング
- Authors: Linjiang Huang, Kaixin Lu, Guanglu Song, Liang Wang, Si Liu, Yu Liu,
Hongsheng Li
- Abstract要約: Teach-DETRは、多用途の教師検出器からより優れたDETRベースの検出器を学習するためのトレーニングスキームである。
我々はSwin-Largeバックボーンと36エポックトレーニングスケジュールで最先端のDINOを改良する。
- 参考スコア(独自算出の注目度): 43.37671158294093
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we present a novel training scheme, namely Teach-DETR, to
learn better DETR-based detectors from versatile teacher detectors. We show
that the predicted boxes from teacher detectors are effective medium to
transfer knowledge of teacher detectors, which could be either RCNN-based or
DETR-based detectors, to train a more accurate and robust DETR model. This new
training scheme can easily incorporate the predicted boxes from multiple
teacher detectors, each of which provides parallel supervisions to the student
DETR. Our strategy introduces no additional parameters and adds negligible
computational cost to the original detector during training. During inference,
Teach-DETR brings zero additional overhead and maintains the merit of requiring
no non-maximum suppression. Extensive experiments show that our method leads to
consistent improvement for various DETR-based detectors. Specifically, we
improve the state-of-the-art detector DINO with Swin-Large backbone and
36-epoch training schedule, from 57.8% to 58.9% in terms of mean average
precision on MSCOCO 2017 validation set. Code will be available at
https://github.com/LeonHLJ/Teach-DETR.
- Abstract(参考訳): 本稿では,多用途の教師検出器からより優れたdetr型検出器を学習するための新しい学習手法である teach-detr を提案する。
教師検出器からの予測ボックスは,より正確で頑健なdetrモデルを訓練するために,rcnnまたはdetrに基づく検出器の知識を伝達する効果的な媒体であることを示す。
この新たなトレーニングスキームは、複数の教師検出器から予測されたボックスを容易に組み込むことができ、それぞれが生徒のDETRに並列監視を提供する。
提案手法では,追加パラメータは導入せず,トレーニング中に元の検出器に無視できない計算コストを付加する。
推論中、Teach-DETRはオーバーヘッドをゼロにし、非最大抑制を必要としないメリットを維持する。
広範な実験により,detr系検出器の一貫性が向上した。
具体的には,Swin-Largeバックボーンと36エポックトレーニングスケジュールを備えた最先端検出器DINOを,MSCOCO 2017検証セットの平均精度で57.8%から58.9%に改善する。
コードはhttps://github.com/LeonHLJ/Teach-DETRで入手できる。
関連論文リスト
- Rank-DETR for High Quality Object Detection [52.82810762221516]
高性能なオブジェクト検出器は、バウンディングボックス予測の正確なランキングを必要とする。
本研究では, 簡易かつ高性能なDETR型物体検出器について, 一連のランク指向設計を提案して紹介する。
論文 参考訳(メタデータ) (2023-10-13T04:48:32Z) - DEYOv3: DETR with YOLO for Real-time Object Detection [0.0]
ステップ・バイ・ステップ・トレーニング(Step-by-step training)と呼ばれる新しいトレーニング手法を提案する。
第1段階では、一対多で事前訓練されたYOLO検出器を使用して、エンドツーエンド検出器を初期化する。
第2段階では、バックボーンとエンコーダはDETRのようなモデルと一致しているが、検出器のみをゼロから訓練する必要がある。
論文 参考訳(メタデータ) (2023-09-21T07:49:07Z) - DETRs with Collaborative Hybrid Assignments Training [11.563949886871713]
本稿では,新しい協調型ハイブリット・アサイン・トレーニング・スキームである$mathcalC$o-DETRを提案する。
このトレーニングスキームは、エンド・ツー・エンド検出器におけるエンコーダの学習能力を容易に向上させることができる。
提案手法の有効性を評価するため, 広範囲な実験を行った。
論文 参考訳(メタデータ) (2022-11-22T16:19:52Z) - D$^3$ETR: Decoder Distillation for Detection Transformer [20.493873634246512]
我々は、DETRベースの検出器のトランスデコーダに着目し、KD法を探索する。
トランスデコーダの出力はランダムな順序で行われ、教師と生徒の予測と直接対応しない。
textbfDecoder textbfDistillation for textbfDEtection textbfTRansformer (D$3$ETR) を構築。
論文 参考訳(メタデータ) (2022-11-17T18:47:24Z) - Recurrent Glimpse-based Decoder for Detection with Transformer [85.64521612986456]
本稿では,Recurrent Glimpse-based deoder (REGO)について紹介する。
特に、REGOは多段階のリカレント処理構造を用いて、DETRの注目が徐々に前景オブジェクトに焦点を合わせるのを助ける。
REGOは、異なるDETR検出器の性能を最大7%向上させる。
論文 参考訳(メタデータ) (2021-12-09T00:29:19Z) - Meta-Teacher For Face Anti-Spoofing [46.604960860807154]
Face Anti-Spoofing (FAS)は、プレゼンテーションアタック(PA)から顔認識を保護する
本稿では,PA検出器をより効果的に監視するためのメタティーチンガーを訓練するための新しいメタティーチンガーFAS(MT-FAS)法を提案する。
論文 参考訳(メタデータ) (2021-11-12T10:09:50Z) - Self-Supervised Person Detection in 2D Range Data using a Calibrated
Camera [83.31666463259849]
2次元LiDARに基づく人検出器のトレーニングラベル(擬似ラベル)を自動生成する手法を提案する。
擬似ラベルで訓練または微調整された自己監視検出器が,手動アノテーションを用いて訓練された検出器を上回っていることを示した。
私達の方法は付加的な分類の努力なしで配置の間に人の探知器を改善する有効な方法です。
論文 参考訳(メタデータ) (2020-12-16T12:10:04Z) - Distilling Object Detectors with Task Adaptive Regularization [97.52935611385179]
現在の最先端のオブジェクト検出器は高い計算コストを犠牲にしており、ローエンドデバイスへのデプロイが困難である。
より大規模な教師モデルから知識を伝達することで、より小さな学生ネットワークを訓練することを目的とした知識蒸留は、モデル小型化のための有望な解決策の1つである。
論文 参考訳(メタデータ) (2020-06-23T15:58:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。