論文の概要: Improving Object Detection by Label Assignment Distillation
- arxiv url: http://arxiv.org/abs/2108.10520v2
- Date: Thu, 26 Aug 2021 00:57:11 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-27 09:17:30.074753
- Title: Improving Object Detection by Label Assignment Distillation
- Title(参考訳): ラベル割り当て蒸留による物体検出の改善
- Authors: Chuong H. Nguyen, Thuy C. Nguyen, Tuan N. Tang, Nam L.H. Phan
- Abstract要約: オブジェクト検出におけるラベルの割り当ては、画像内のサンプリングされた領域にターゲット、前景または背景を割り当てることを目的としている。
本稿では,2つのネットワークがスクラッチから同時に学習し,教師と学生の役割を動的に交換するコラーニングLADを紹介する。
PAA-ResNet50を教師として使用することにより、PAA-ResNet101とPAA-ResNeXt101の検出器を、テストデブセットで46 rm AP$と47.5rm AP$に改善できる。
- 参考スコア(独自算出の注目度): 0.45880283710344055
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Label assignment in object detection aims to assign targets, foreground or
background, to sampled regions in an image. Unlike labeling for image
classification, this problem is not well defined due to the object's bounding
box. In this paper, we investigate the problem from a perspective of
distillation, hence we call Label Assignment Distillation (LAD). Our initial
motivation is very simple, we use a teacher network to generate labels for the
student. This can be achieved in two ways: either using the teacher's
prediction as the direct targets (soft label), or through the hard labels
dynamically assigned by the teacher (LAD). Our experiments reveal that: (i) LAD
is more effective than soft-label, but they are complementary. (ii) Using LAD,
a smaller teacher can also improve a larger student significantly, while
soft-label can't. We then introduce Co-learning LAD, in which two networks
simultaneously learn from scratch and the role of teacher and student are
dynamically interchanged. Using PAA-ResNet50 as a teacher, our LAD techniques
can improve detectors PAA-ResNet101 and PAA-ResNeXt101 to $46 \rm AP$ and
$47.5\rm AP$ on the COCO test-dev set. With a strong teacher PAA-SwinB, we
improve the PAA-ResNet50 to $43.9\rm AP$ with only \1x schedule training, and
PAA-ResNet101 to $47.9\rm AP$, significantly surpassing the current methods.
Our source code and checkpoints will be released at
https://github.com/cybercore-co-ltd/CoLAD_paper.
- Abstract(参考訳): オブジェクト検出におけるラベル割り当ては、画像内のサンプルされた領域に前景または背景のターゲットを割り当てることを目的としている。
画像分類のラベル付けとは異なり、この問題はオブジェクトの境界ボックスのために適切に定義されていない。
本稿では,蒸留の観点から問題を考察し,ラベル割り当て蒸留(LAD)と呼ぶ。
最初のモチベーションは非常に単純で、教師ネットワークを使って生徒のラベルを生成します。
これは、教師の予測を直接の目標(ソフトラベル)として使うか、または教師が動的に割り当てるハードラベル(LAD)を通して達成できる。
実験の結果, (i)LADはソフトラベルよりも有効であるが, 相補的であることがわかった。
(ii)ladを使用すると、より小さな教師はより大きな生徒を著しく改善できるが、ソフトラベルはできない。
次に,2つのネットワークがスクラッチから同時に学習し,教師と学生の役割を動的に交換するコラーニングLADを紹介する。
PAA-ResNet50を教師として使うことで、PAA-ResNet101とPAA-ResNeXt101の検出器を、COCOテストデブセットで46ドル、47.5ドルに改善できます。
強力な教師であるPAA-SwinBでは、PAA-ResNet50を1倍のスケジュールトレーニングで43.9ドル、PAA-ResNet101を47.9ドルに改善し、現在の手法を大きく上回っている。
ソースコードとチェックポイントはhttps://github.com/cybercore-co-ltd/colad_paperで公開します。
関連論文リスト
- Make a Strong Teacher with Label Assistance: A Novel Knowledge Distillation Approach for Semantic Segmentation [40.80204896051931]
セマンティックセグメンテーションタスクのための新しい知識蒸留手法を提案する。
教師モデルトレーニングでは,ラベルをノイズにし,それをインプットに組み込み,軽量教師のパフォーマンスを効果的に向上させることを提案する。
本手法は,知識蒸留の有効性を高めるだけでなく,教師モデルや学生モデルを選択する際の柔軟性も向上させる。
論文 参考訳(メタデータ) (2024-07-18T08:08:04Z) - PromptKD: Unsupervised Prompt Distillation for Vision-Language Models [40.858721356497085]
本稿では,教師モデルの知識を軽量ターゲットモデルに伝達することを目的とした,教師なしドメインプロンプト蒸留フレームワークを提案する。
本フレームワークは,2つの異なる段階から構成される。初期段階では,ドメイン(フェーショット)ラベルを用いて,大規模なCLIP教師モデルを事前訓練する。
その後の段階では、記憶されたクラスベクトルを教師と生徒の画像エンコーダ間で共有し、予測ロジットを算出する。
論文 参考訳(メタデータ) (2024-03-05T08:53:30Z) - Improving Knowledge Distillation via Regularizing Feature Norm and
Direction [16.98806338782858]
知識蒸留(KD)は、大きな訓練されたモデル(例えば教師)を利用して、同じタスクのために同じデータセット上で小さな学生モデルを訓練する。
教師の特徴を知識として扱うこと、知識蒸留訓練の学生は、その特徴を教師の特徴と整合させることによって、例えば、ロジット間のKL偏差を最小化し、中間特徴間のL2距離を最小化する。
教師に対する生徒の特徴の整合性の向上は教師の知識をよりよく蒸留すると考えるのは自然なことだが、単にこの整合性を強制することは生徒のパフォーマンスに直接寄与しない。
論文 参考訳(メタデータ) (2023-05-26T15:05:19Z) - Contrastive Mean Teacher for Domain Adaptive Object Detectors [20.06919799819326]
平均教師の自己学習は、オブジェクト検出のための教師なしドメイン適応において強力なパラダイムであるが、低品質の擬似ラベルに苦しむ。
提案するContrastive Mean Teacher (CMT)は、2つのパラダイムが自然に統合され、有益な学習信号が最大化される統一的汎用フレームワークである。
CMTは、Fogdy Cityscapesで51.9%のmAPを達成し、これまでで最高の2.1%のmAPを達成している。
論文 参考訳(メタデータ) (2023-05-04T17:55:17Z) - Focus on Your Target: A Dual Teacher-Student Framework for
Domain-adaptive Semantic Segmentation [210.46684938698485]
意味的セグメンテーションのための教師なしドメイン適応(UDA)について検討する。
対象領域からのトレーニングサンプルの割合を減少・増加させることで,「学習能力」が強化・弱まることがわかった。
本稿では,DTS(Double teacher-student)フレームワークを提案し,双方向学習戦略を取り入れた。
論文 参考訳(メタデータ) (2023-03-16T05:04:10Z) - Active Teacher for Semi-Supervised Object Detection [80.10937030195228]
半教師対象検出(SSOD)のための能動教師と呼ばれる新しいアルゴリズムを提案する。
Active Teacherは、教師/学生のフレームワークを反復的なバージョンに拡張し、ラベルセットを部分的に段階的に拡張し、ラベルなし例の3つの重要な要素を評価する。
この設計により、Active Teacherは、擬似ラベルの品質を改善しながら、限られたラベル情報の効果を最大化することができる。
論文 参考訳(メタデータ) (2023-03-15T03:59:27Z) - Label Matching Semi-Supervised Object Detection [85.99282969977541]
半教師対象検出は,教師主導型自己学習の開発において大きな進歩を遂げている。
ラベルミスマッチ問題は、以前の研究でまだ完全に解明されていないため、自己学習中に重大な確証バイアスが生じる。
本稿では,2つの異なる相補的視点から,単純かつ効果的な LabelMatch フレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-14T05:59:41Z) - Unbiased Teacher for Semi-Supervised Object Detection [50.0087227400306]
SS-OD(Semi-Supervised Object Detection)を再検討し,SS-ODにおける擬似ラベルバイアス問題を特定する。
学生と徐々に進歩する教師を相互に利益ある方法で共同で訓練するシンプルで効果的なアプローチであるUnbiased Teacherを紹介します。
論文 参考訳(メタデータ) (2021-02-18T17:02:57Z) - SLADE: A Self-Training Framework For Distance Metric Learning [75.54078592084217]
我々は、追加のラベルのないデータを活用することで、検索性能を向上させるための自己学習フレームワークSLADEを提案する。
まず、ラベル付きデータに基づいて教師モデルをトレーニングし、ラベルなしデータに対して擬似ラベルを生成する。
次に、最終機能埋め込みを生成するために、ラベルと擬似ラベルの両方で学生モデルをトレーニングします。
論文 参考訳(メタデータ) (2020-11-20T08:26:10Z) - Meta Pseudo Labels [101.96063913077872]
ImageNet上で90.2%の新しい最先端トップ1精度を実現する半教師付き学習手法であるMeta Pseudo Labelsを提案する。
教師が固定されたPseudo Labelsとは異なり、Meta Pseudo Labelsの教師は、ラベル付きデータセット上での生徒のパフォーマンスのフィードバックによって常に適応される。
論文 参考訳(メタデータ) (2020-03-23T23:41:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。