論文の概要: CLoCKDistill: Consistent Location-and-Context-aware Knowledge Distillation for DETRs
- arxiv url: http://arxiv.org/abs/2502.10683v1
- Date: Sat, 15 Feb 2025 06:02:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-18 14:11:36.736254
- Title: CLoCKDistill: Consistent Location-and-Context-aware Knowledge Distillation for DETRs
- Title(参考訳): CLoCKDistill:DETRのための一貫した位置認識型知識蒸留
- Authors: Qizhen Lan, Qing Tian,
- Abstract要約: 本稿では,DETR検出器のためのCLoCKDistill(Consistent Location-and-Aware Knowledge Distillation)を提案する。
我々は、価値あるグローバルコンテキストと長距離依存関係を含むトランスフォーマーエンコーダ出力(メモリ)を蒸留する。
本手法は,学生検出器の性能を2.2%から6.4%向上させる。
- 参考スコア(独自算出の注目度): 2.7624021966289605
- License:
- Abstract: Object detection has advanced significantly with Detection Transformers (DETRs). However, these models are computationally demanding, posing challenges for deployment in resource-constrained environments (e.g., self-driving cars). Knowledge distillation (KD) is an effective compression method widely applied to CNN detectors, but its application to DETR models has been limited. Most KD methods for DETRs fail to distill transformer-specific global context. Also, they blindly believe in the teacher model, which can sometimes be misleading. To bridge the gaps, this paper proposes Consistent Location-and-Context-aware Knowledge Distillation (CLoCKDistill) for DETR detectors, which includes both feature distillation and logit distillation components. For feature distillation, instead of distilling backbone features like existing KD methods, we distill the transformer encoder output (i.e., memory) that contains valuable global context and long-range dependencies. Also, we enrich this memory with object location details during feature distillation so that the student model can prioritize relevant regions while effectively capturing the global context. To facilitate logit distillation, we create target-aware queries based on the ground truth, allowing both the student and teacher decoders to attend to consistent and accurate parts of encoder memory. Experiments on the KITTI and COCO datasets show our CLoCKDistill method's efficacy across various DETRs, e.g., single-scale DAB-DETR, multi-scale deformable DETR, and denoising-based DINO. Our method boosts student detector performance by 2.2% to 6.4%.
- Abstract(参考訳): 物体検出は、検出変換器(DETR)によって大幅に進歩した。
しかし、これらのモデルは計算的に要求され、リソースに制約のある環境(例えば自動運転車)に展開する上での課題を提起している。
知識蒸留(KD)は、CNN検出器に広く応用されている効果的な圧縮法であるが、DETRモデルへの応用は限られている。
DETRのほとんどのKD法は、トランスフォーマー固有のグローバルコンテキストの蒸留に失敗した。
また、しばしば誤解を招くような教師モデルも盲目的に信じている。
このギャップを埋めるため,DTR検出器における特徴蒸留とロジット蒸留の両方を含むConsistent Location-and-Aware Knowledge Distillation (CLoCKDistill)を提案する。
特徴蒸留では、既存のKD法のようなバックボーンの特徴を蒸留する代わりに、重要なグローバルコンテキストと長距離依存関係を含むトランスフォーマーエンコーダ出力(メモリ)を蒸留する。
また,このメモリに特徴蒸留中のオブジェクト位置の詳細を付加することにより,学生モデルがグローバルな文脈を効果的に捉えながら,関連する領域を優先順位付けすることができる。
ロージット蒸留を容易にするため,本研究では,学生と教師の両方が,エンコーダメモリの一貫性のある正確な部分に参加することができるように,真理に基づいてターゲット認識クエリを作成する。
KITTIおよびCOCOデータセットを用いた実験により、CLOCKDistill法は、例えば、単一スケールのDAB-DETR、マルチスケールの変形可能なDETR、デノナイジングベースのDINOなど、様々なDTRに対して有効であることが示された。
本手法は,学生検出器の性能を2.2%から6.4%向上させる。
関連論文リスト
- Knowledge Distillation via Query Selection for Detection Transformer [25.512519971607237]
本稿では, 知識蒸留を利用したDETR圧縮の課題について述べる。
DETRのパフォーマンスの重要な側面は、オブジェクト表現を正確に解釈するためのクエリへの依存である。
我々の視覚分析から,前景要素に着目した強相関クエリが蒸留結果の向上に不可欠であることが示唆された。
論文 参考訳(メタデータ) (2024-09-10T11:49:28Z) - Efficient Object Detection in Optical Remote Sensing Imagery via
Attention-based Feature Distillation [29.821082433621868]
本研究では,物体検出のための注意型特徴蒸留(AFD)を提案する。
本稿では,背景要素と前景要素を効果的に区別するマルチインスタンスアテンション機構を提案する。
AFDは、他の最先端モデルの性能を効率よく達成する。
論文 参考訳(メタデータ) (2023-10-28T11:15:37Z) - Knowledge Diffusion for Distillation [53.908314960324915]
知識蒸留(KD)における教師と学生の表現ギャップ
これらの手法の本質は、ノイズ情報を捨て、その特徴の貴重な情報を蒸留することである。
DiffKDと呼ばれる新しいKD手法を提案し、拡散モデルを用いて特徴を明示的に識別し一致させる。
論文 参考訳(メタデータ) (2023-05-25T04:49:34Z) - Continual Detection Transformer for Incremental Object Detection [154.8345288298059]
インクリメンタルオブジェクト検出(IOD)は、新しいオブジェクトカテゴリに対するアノテーションを備えた、フェーズ内のオブジェクト検出をトレーニングすることを目的としている。
他の段階的な設定として、IODは破滅的な忘れがちであり、知識蒸留(KD)や模範再生(ER)といった技術によってしばしば対処される。
本稿では,この文脈でKDとERを効果的に活用できるトランスフォーマーベースのIODを提案する。
論文 参考訳(メタデータ) (2023-04-06T14:38:40Z) - DETRDistill: A Universal Knowledge Distillation Framework for
DETR-families [11.9748352746424]
トランスフォーマーベースの検出器(DETR)は、訓練パラダイムの疎さと後処理操作の除去により、大きな注目を集めている。
知識蒸留(KD)は、普遍的な教師学習フレームワークを構築することで、巨大なモデルを圧縮するために用いられる。
論文 参考訳(メタデータ) (2022-11-17T13:35:11Z) - Knowledge Distillation for Detection Transformer with Consistent
Distillation Points Sampling [38.60121990752897]
本稿では,一貫した蒸留点サンプリングによるDETR(KD-DETR)の知識蒸留パラダイムを提案する。
KD-DETRは、ResNet-18とResNet-50のバックボーンでDAB-DETRのパフォーマンスを41.4$%$、45.7$%$mAPに向上させ、ResNet-50は2.2%の価格で教師モデルを超えた。
論文 参考訳(メタデータ) (2022-11-15T11:52:30Z) - IDa-Det: An Information Discrepancy-aware Distillation for 1-bit
Detectors [30.452449805950593]
知識蒸留(KD)は、コンパクト物体検出モデルの訓練に有用である。
教師モデルと生徒が同様の提案情報を共有する場合、KDは効果的であることが多い。
本稿では,1ビット検出器を蒸留するためのIDa-Det(Information Discrepancy-Aware Strategy)を提案する。
論文 参考訳(メタデータ) (2022-10-07T12:04:14Z) - Exploring Inconsistent Knowledge Distillation for Object Detection with
Data Augmentation [66.25738680429463]
物体検出のための知識蒸留(KD)は、教師モデルから知識を伝達することで、コンパクトな検出器を訓練することを目的としている。
教師モデルの反直感的知覚に固有の知識を蒸留することを目的とした,一貫性のない知識蒸留(IKD)を提案する。
本手法は, 1段, 2段, アンカーフリーの物体検出器において, 最先端のKDベースラインより優れる。
論文 参考訳(メタデータ) (2022-09-20T16:36:28Z) - Localization Distillation for Object Detection [134.12664548771534]
物体検出のための従来の知識蒸留法(KD)は、分類ロジットを模倣するのではなく、主に特徴模倣に焦点を当てている。
本稿では,教師から生徒に効率よくローカライズ知識を伝達できる新しいローカライズ蒸留法を提案する。
われわれは,ロジット模倣が特徴模倣より優れることを示すとともに,ロージット模倣が何年もの間,ロージット模倣が不十分であった理由として,ロージット蒸留が欠如していることが重要である。
論文 参考訳(メタデータ) (2022-04-12T17:14:34Z) - TransKD: Transformer Knowledge Distillation for Efficient Semantic Segmentation [49.794142076551026]
Transformer-based Knowledge Distillation (TransKD) フレームワークは,大規模教師トランスフォーマーの機能マップとパッチ埋め込みの両方を蒸留することにより,コンパクトな学生トランスフォーマーを学習する。
Cityscapes、ACDC、NYUv2、Pascal VOC2012データセットの実験は、TransKDが最先端の蒸留フレームワークより優れていることを示している。
論文 参考訳(メタデータ) (2022-02-27T16:34:10Z) - Localization Distillation for Object Detection [79.78619050578997]
物体検出のためのローカライズ蒸留(LD)を提案する。
我々のldは、バウンディングボックスの一般局在表現を採用することで標準kdとして定式化することができる。
教師モデルと学生モデルとのギャップを埋めるための教師アシスタント(TA)戦略を提案します。
論文 参考訳(メタデータ) (2021-02-24T12:26:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。