論文の概要: Domain-invariant Progressive Knowledge Distillation for UAV-based Object Detection
- arxiv url: http://arxiv.org/abs/2408.11407v1
- Date: Wed, 21 Aug 2024 08:05:03 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-22 17:59:43.092677
- Title: Domain-invariant Progressive Knowledge Distillation for UAV-based Object Detection
- Title(参考訳): UAVによる物体検出のためのドメイン不変なプログレッシブ知識蒸留
- Authors: Liang Yao, Fan Liu, Chuanyi Zhang, Zhiquan Ou, Ting Wu,
- Abstract要約: UAV-ODのための新しい知識蒸留フレームワークを提案する。
具体的には, プログレッシブ蒸留法により, 教師モデルと学生モデルの特徴ギャップを緩和する。
学生モデルの知識受容効率を高めるために,対象物に関連する特徴を抽出する新たな特徴アライメント法が提供される。
- 参考スコア(独自算出の注目度): 13.255646312416532
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Knowledge distillation (KD) is an effective method for compressing models in object detection tasks. Due to limited computational capability, UAV-based object detection (UAV-OD) widely adopt the KD technique to obtain lightweight detectors. Existing methods often overlook the significant differences in feature space caused by the large gap in scale between the teacher and student models. This limitation hampers the efficiency of knowledge transfer during the distillation process. Furthermore, the complex backgrounds in UAV images make it challenging for the student model to efficiently learn the object features. In this paper, we propose a novel knowledge distillation framework for UAV-OD. Specifically, a progressive distillation approach is designed to alleviate the feature gap between teacher and student models. Then a new feature alignment method is provided to extract object-related features for enhancing student model's knowledge reception efficiency. Finally, extensive experiments are conducted to validate the effectiveness of our proposed approach. The results demonstrate that our proposed method achieves state-of-the-art (SoTA) performance in two UAV-OD datasets.
- Abstract(参考訳): 知識蒸留(KD)は、物体検出タスクにおけるモデル圧縮に有効な方法である。
限られた計算能力のため、UAV-OD(UAV-OD)はKD技術を用いて軽量検出器を得る。
既存の手法は、教師と学生のモデルの間の大規模なギャップによって生じる特徴空間の顕著な違いをしばしば見落としている。
この制限は蒸留過程における知識伝達の効率を損なう。
さらに、UAV画像の複雑な背景は、学生モデルがオブジェクトの特徴を効率的に学習することを困難にしている。
本稿では,UAV-ODのための新しい知識蒸留フレームワークを提案する。
具体的には, プログレッシブ蒸留法により, 教師モデルと学生モデルの特徴ギャップを緩和する。
そして、学生モデルの知識受容効率を高めるために、オブジェクトに関連する特徴を抽出する新しい特徴アライメント法を提供する。
最後に,提案手法の有効性を検証するため,広範囲な実験を行った。
提案手法は,2つのUAV-ODデータセットにおいて,最先端(SoTA)性能を実現することを実証した。
関連論文リスト
- Centerness-based Instance-aware Knowledge Distillation with Task-wise Mutual Lifting for Object Detection on Drone Imagery [32.60564590897137]
本稿では,ドローン画像の物体検出に知識蒸留(KD)を適用した最初の試みについて述べる。
本稿では,Centerness-based Instance-aware Distillation (CID) 戦略を用いたタスクワイド・ミューチュアル・リフティング (Light-ML) モジュールを提案する。
VisDrone、UAVDT、COCOベンチマークの実験では、提案手法が既存のKD法と同等な計算条件の精度を高めることが示されている。
論文 参考訳(メタデータ) (2024-11-05T07:09:27Z) - One Step Diffusion-based Super-Resolution with Time-Aware Distillation [60.262651082672235]
拡散に基づく画像超解像(SR)法は,低解像度画像から細部まで細部まで,高解像度画像の再構成に有望であることを示す。
近年,拡散型SRモデルの知識蒸留によるサンプリング効率の向上が試みられている。
我々は,効率的な画像超解像を実現するため,TAD-SRというタイムアウェア拡散蒸留法を提案する。
論文 参考訳(メタデータ) (2024-08-14T11:47:22Z) - Teaching with Uncertainty: Unleashing the Potential of Knowledge Distillation in Object Detection [47.0507287491627]
本稿では,物体検出のための知識の不確実性を考慮した特徴量に基づく蒸留パラダイムを提案する。
モンテカルロのドロップアウト手法を利用して,学生モデルの学習過程に知識の不確実性を導入する。
本手法は,複雑な構造や計算資源を必要とせずに,KDプロセス中に効果的に機能する。
論文 参考訳(メタデータ) (2024-06-11T06:51:02Z) - Diffusion-Based Particle-DETR for BEV Perception [94.88305708174796]
Bird-Eye-View (BEV)は、自律走行車(AV)における視覚知覚のための最も広く使われているシーンの1つである。
近年の拡散法は、視覚知覚のための不確実性モデリングに有望なアプローチを提供するが、BEVの広い範囲において、小さな物体を効果的に検出することができない。
本稿では,BEVにおける拡散パラダイムと最先端の3Dオブジェクト検出器を組み合わせることで,この問題に対処する。
論文 参考訳(メタデータ) (2023-12-18T09:52:14Z) - Knowledge Diffusion for Distillation [53.908314960324915]
知識蒸留(KD)における教師と学生の表現ギャップ
これらの手法の本質は、ノイズ情報を捨て、その特徴の貴重な情報を蒸留することである。
DiffKDと呼ばれる新しいKD手法を提案し、拡散モデルを用いて特徴を明示的に識別し一致させる。
論文 参考訳(メタデータ) (2023-05-25T04:49:34Z) - Gradient-Guided Knowledge Distillation for Object Detectors [3.236217153362305]
グラディエント誘導型知識蒸留(GKD)という,物体検出における知識蒸留の新しい手法を提案する。
我々のGKDは勾配情報を用いて、検出損失に大きな影響を及ぼす特徴を識別し、割り当て、生徒が教師から最も関連性の高い特徴を学習できるようにする。
KITTIとCOCO-Trafficデータセットの実験は、対象検出のための知識蒸留における本手法の有効性を実証する。
論文 参考訳(メタデータ) (2023-03-07T21:09:09Z) - Exploring Inconsistent Knowledge Distillation for Object Detection with
Data Augmentation [66.25738680429463]
物体検出のための知識蒸留(KD)は、教師モデルから知識を伝達することで、コンパクトな検出器を訓練することを目的としている。
教師モデルの反直感的知覚に固有の知識を蒸留することを目的とした,一貫性のない知識蒸留(IKD)を提案する。
本手法は, 1段, 2段, アンカーフリーの物体検出器において, 最先端のKDベースラインより優れる。
論文 参考訳(メタデータ) (2022-09-20T16:36:28Z) - Adaptive Instance Distillation for Object Detection in Autonomous
Driving [3.236217153362305]
本稿では,教師の知識を学生に選択的に付与し,知識蒸留の性能を向上させるための適応型インスタンス蒸留(AID)を提案する。
また,AIDは教師モデルの性能向上に有効であることが示された。
論文 参考訳(メタデータ) (2022-01-26T18:06:33Z) - Dynamic Knowledge Distillation with A Single Stream Structure for
RGB-DSalient Object Detection [8.57914821832517]
RGB-D Salient Object Detection (SOD) は複雑な環境における検出においてその優位性を示す。
深度画像から特徴を抽出するために独立したストリームが導入され、余分な計算とパラメータが導かれる。
本稿では, 動的蒸留法と軽量な枠組みを併用し, パラメータを大幅に削減する手法を提案する。
論文 参考訳(メタデータ) (2021-06-17T14:07:25Z) - Residual Knowledge Distillation [96.18815134719975]
本研究は,アシスタント(A)を導入し,さらに知識を蒸留する残留知識蒸留(RKD)を提案する。
このように、S は T の特徴写像を模倣するように訓練され、A はそれらの間の残差を学習することでこの過程を支援する。
提案手法は,CIFAR-100 と ImageNet という,一般的な分類データセットにおいて魅力的な結果が得られることを示す。
論文 参考訳(メタデータ) (2020-02-21T07:49:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。