論文の概要: Bridging Cross-task Protocol Inconsistency for Distillation in Dense
Object Detection
- arxiv url: http://arxiv.org/abs/2308.14286v1
- Date: Mon, 28 Aug 2023 03:57:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-29 15:43:04.261149
- Title: Bridging Cross-task Protocol Inconsistency for Distillation in Dense
Object Detection
- Title(参考訳): 高密度物体検出における蒸留用クロスタスクプロトコルの不整合のブリッジング
- Authors: Longrong Yang, Xianpan Zhou, Xuewei Li, Liang Qiao, Zheyang Li, Ziwei
Yang, Gaoang Wang, Xi Li
- Abstract要約: 本研究では,高密度物体検出に適したクロスタスク一貫したプロトコルを用いた新しい蒸留法を提案する。
分類蒸留では,教師モデルと学生モデルの両方の分類ロジットマップを複数の二分分類マップとして定式化し,各地図に二分分類蒸留損失を適用した。
提案手法は単純だが有効であり,既存の手法よりも優れていることを示す実験結果を得た。
- 参考スコア(独自算出の注目度): 19.07452370081663
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Knowledge distillation (KD) has shown potential for learning compact models
in dense object detection. However, the commonly used softmax-based
distillation ignores the absolute classification scores for individual
categories. Thus, the optimum of the distillation loss does not necessarily
lead to the optimal student classification scores for dense object detectors.
This cross-task protocol inconsistency is critical, especially for dense object
detectors, since the foreground categories are extremely imbalanced. To address
the issue of protocol differences between distillation and classification, we
propose a novel distillation method with cross-task consistent protocols,
tailored for the dense object detection. For classification distillation, we
address the cross-task protocol inconsistency problem by formulating the
classification logit maps in both teacher and student models as multiple
binary-classification maps and applying a binary-classification distillation
loss to each map. For localization distillation, we design an IoU-based
Localization Distillation Loss that is free from specific network structures
and can be compared with existing localization distillation losses. Our
proposed method is simple but effective, and experimental results demonstrate
its superiority over existing methods. Code is available at
https://github.com/TinyTigerPan/BCKD.
- Abstract(参考訳): 知識蒸留(kd)は高密度物体検出においてコンパクトモデルを学ぶ可能性を示した。
しかし、一般的に用いられるソフトマックスベースの蒸留は、個々のカテゴリの絶対的な分類スコアを無視している。
したがって、蒸留損失の最適化は、高密度物体検出器の最適学生分類スコアを必ずしも生かさない。
このクロスタスクプロトコルの不整合は、特に高密度物体検出器では、フォアグラウンドのカテゴリーは極めて不均衡である。
蒸留と分類のプロトコルの違いに対処するため,高密度物体検出に適したクロスタスク一貫したプロトコルを用いた新しい蒸留法を提案する。
分類蒸留では,教師モデルと学生モデルの両方の分類ロジットマップを複数の二分分類マップとして定式化し,各地図に二分分類蒸留損失を適用することで,クロスタスクプロトコルの不整合問題に対処する。
ローカル化蒸留では, 特定のネットワーク構造を伴わず, 既存のローカライゼーション蒸留損失と比較可能な, IoUベースのローカライゼーション蒸留損失を設計する。
提案手法は単純だが有効であり,既存の手法よりも優れていることを示す実験結果である。
コードはhttps://github.com/TinyTigerPan/BCKDで入手できる。
関連論文リスト
- Collaborative Feature-Logits Contrastive Learning for Open-Set Semi-Supervised Object Detection [75.02249869573994]
オープンセットのシナリオでは、ラベルなしデータセットには、イン・ディストリビューション(ID)クラスとアウト・オブ・ディストリビューション(OOD)クラスの両方が含まれている。
このような設定で半教師付き検出器を適用すると、OODクラスをIDクラスとして誤分類する可能性がある。
我々は、CFL-Detector(Collaborative Feature-Logits Detector)と呼ばれるシンプルで効果的な方法を提案する。
論文 参考訳(メタデータ) (2024-11-20T02:57:35Z) - Ambiguity-Resistant Semi-Supervised Learning for Dense Object Detection [98.66771688028426]
本研究では,一段階検出器のためのAmbiguity-Resistant Semi-supervised Learning (ARSL)を提案する。
擬似ラベルの分類とローカライズ品質を定量化するために,JCE(Joint-Confidence Estimation)を提案する。
ARSLは、曖昧さを効果的に軽減し、MS COCOおよびPASCALVOC上で最先端のSSOD性能を達成する。
論文 参考訳(メタデータ) (2023-03-27T07:46:58Z) - Knowledge Distillation from Single to Multi Labels: an Empirical Study [14.12487391004319]
クラス活性化マップ(CAM)に基づく新しい蒸留法を提案する。
以上の結果から,ロジット法はマルチラベル分類に適していないことが示唆された。
そこで本研究では,適切な暗黒知識にクラス情報を導入し,最終分類結果と高い相関性を持たせることを提案する。
論文 参考訳(メタデータ) (2023-03-15T04:39:01Z) - Task-Balanced Distillation for Object Detection [18.939830805129787]
ResNet-50のRetinaNetは41.0 mAPをベンチマークで達成し、最近のFGDとCOCOを上回っている。
分類タスクと回帰タスクのコントリビューションを柔軟にバランスさせることにより、新しいタスク分離型特徴蒸留(TFD)を提案する。
論文 参考訳(メタデータ) (2022-08-05T06:43:40Z) - Localization Distillation for Object Detection [134.12664548771534]
物体検出のための従来の知識蒸留法(KD)は、分類ロジットを模倣するのではなく、主に特徴模倣に焦点を当てている。
本稿では,教師から生徒に効率よくローカライズ知識を伝達できる新しいローカライズ蒸留法を提案する。
われわれは,ロジット模倣が特徴模倣より優れることを示すとともに,ロージット模倣が何年もの間,ロージット模倣が不十分であった理由として,ロージット蒸留が欠如していることが重要である。
論文 参考訳(メタデータ) (2022-04-12T17:14:34Z) - Label Assignment Distillation for Object Detection [0.0]
我々は,オブジェクト検出におけるラベル割り当てに着目した,単純だが効果的な知識蒸留手法を考案した。
提案手法は, MSCOCO 2017ベンチマークで有望な結果を示す。
論文 参考訳(メタデータ) (2021-09-16T10:11:58Z) - Rethinking Pseudo Labels for Semi-Supervised Object Detection [84.697097472401]
物体検出に適した確実な擬似ラベルを導入する。
我々は,クラス不均衡問題を緩和するために,各カテゴリの擬似ラベルと再重み付き損失関数を生成するために使用する閾値を動的に調整する。
提案手法では,COCOのラベル付きデータのみを用いて,教師付きベースラインを最大10%改善する。
論文 参考訳(メタデータ) (2021-06-01T01:32:03Z) - Distilling Object Detectors via Decoupled Features [69.62967325617632]
より優れた学生検出器を学習するための,デカップリング機能(DeFeat)を用いた新しい蒸留アルゴリズムを提案する。
バックボーンの異なる様々な検出器を用いた実験により, 提案手法の破れが, 被写体検出の最先端蒸留法を上回ることができることを示した。
論文 参考訳(メタデータ) (2021-03-26T13:58:49Z) - Deep Semi-supervised Knowledge Distillation for Overlapping Cervical
Cell Instance Segmentation [54.49894381464853]
本稿では, ラベル付きデータとラベルなしデータの両方を, 知識蒸留による精度向上に活用することを提案する。
摂動に敏感なサンプルマイニングを用いたマスク誘導型平均教師フレームワークを提案する。
実験の結果,ラベル付きデータのみから学習した教師付き手法と比較して,提案手法は性能を著しく向上することがわかった。
論文 参考訳(メタデータ) (2020-07-21T13:27:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。