論文の概要: Efficient Object Detection in Optical Remote Sensing Imagery via
Attention-based Feature Distillation
- arxiv url: http://arxiv.org/abs/2310.18676v1
- Date: Sat, 28 Oct 2023 11:15:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-31 17:04:52.833404
- Title: Efficient Object Detection in Optical Remote Sensing Imagery via
Attention-based Feature Distillation
- Title(参考訳): 注意型特徴蒸留による光学的リモートセンシング画像の効率的な物体検出
- Authors: Pourya Shamsolmoali, Jocelyn Chanussot, Huiyu Zhou, Yue Lu
- Abstract要約: 本研究では,物体検出のための注意型特徴蒸留(AFD)を提案する。
本稿では,背景要素と前景要素を効果的に区別するマルチインスタンスアテンション機構を提案する。
AFDは、他の最先端モデルの性能を効率よく達成する。
- 参考スコア(独自算出の注目度): 29.821082433621868
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Efficient object detection methods have recently received great attention in
remote sensing. Although deep convolutional networks often have excellent
detection accuracy, their deployment on resource-limited edge devices is
difficult. Knowledge distillation (KD) is a strategy for addressing this issue
since it makes models lightweight while maintaining accuracy. However, existing
KD methods for object detection have encountered two constraints. First, they
discard potentially important background information and only distill nearby
foreground regions. Second, they only rely on the global context, which limits
the student detector's ability to acquire local information from the teacher
detector. To address the aforementioned challenges, we propose Attention-based
Feature Distillation (AFD), a new KD approach that distills both local and
global information from the teacher detector. To enhance local distillation, we
introduce a multi-instance attention mechanism that effectively distinguishes
between background and foreground elements. This approach prompts the student
detector to focus on the pertinent channels and pixels, as identified by the
teacher detector. Local distillation lacks global information, thus attention
global distillation is proposed to reconstruct the relationship between various
pixels and pass it from teacher to student detector. The performance of AFD is
evaluated on two public aerial image benchmarks, and the evaluation results
demonstrate that AFD in object detection can attain the performance of other
state-of-the-art models while being efficient.
- Abstract(参考訳): 近年,リモートセンシングにおいて効率的な物体検出手法が注目されている。
深層畳み込みネットワークは検出精度が優れていることが多いが、リソース限定エッジデバイスへの展開は困難である。
知識蒸留(KD)は、精度を維持しながらモデルを軽量にするので、この問題に対処するための戦略である。
しかし、既存のオブジェクト検出のためのKD法には2つの制約がある。
まず、潜在的に重要な背景情報を捨て、近くのフォアグラウンド地域だけを蒸留する。
第二に、学生検出器が教師検出器からローカル情報を取得する能力を制限するグローバルコンテキストにのみ依存する。
上記の課題に対処するために,教師検出器から局所情報とグローバル情報の両方を蒸留する新しいKDアプローチである,注意に基づく特徴蒸留(AFD)を提案する。
局所蒸留を促進するために, 背景要素と前景要素を効果的に区別するマルチインテンス注意機構を導入する。
このアプローチは、教師検出器によって特定されるように、学生検出器が関連するチャネルとピクセルに集中するように促す。
局所蒸留はグローバル情報に乏しいため,様々な画素間の関係を再構築し,教師から学生検出器に渡すために注意深いグローバル蒸留が提案されている。
AFDの性能を2つの公開航空画像ベンチマークで評価し、オブジェクト検出におけるAFDが他の最先端モデルの性能を効率よく達成できることを示す。
関連論文リスト
- Object-centric Cross-modal Feature Distillation for Event-based Object
Detection [87.50272918262361]
RGB検出器は、イベントデータのばらつきと視覚的詳細の欠如により、イベントベースの検出器よりも優れている。
これら2つのモード間の性能ギャップを縮めるための新しい知識蒸留手法を開発した。
対象中心蒸留により,イベントベースの学生物体検出装置の性能が大幅に向上することを示す。
論文 参考訳(メタデータ) (2023-11-09T16:33:08Z) - Learning Heavily-Degraded Prior for Underwater Object Detection [59.5084433933765]
本稿では、検出器フレンドリーな画像から、転送可能な事前知識を求める。
これは、検出器フレンドリー(DFUI)と水中画像の高度に劣化した領域が、特徴分布のギャップがあることを統計的に観察したものである。
高速かつパラメータの少ない本手法は変圧器型検出器よりも優れた性能を保っている。
論文 参考訳(メタデータ) (2023-08-24T12:32:46Z) - From Global to Local: Multi-scale Out-of-distribution Detection [129.37607313927458]
アウト・オブ・ディストリビューション(OOD)検出は、イン・ディストリビューション(ID)トレーニングプロセス中にラベルが見られない未知のデータを検出することを目的としている。
近年の表現学習の進歩により,距離に基づくOOD検出がもたらされる。
グローバルな視覚情報と局所的な情報の両方を活用する第1のフレームワークであるマルチスケールOOD検出(MODE)を提案する。
論文 参考訳(メタデータ) (2023-08-20T11:56:25Z) - Gradient-Guided Knowledge Distillation for Object Detectors [3.236217153362305]
グラディエント誘導型知識蒸留(GKD)という,物体検出における知識蒸留の新しい手法を提案する。
我々のGKDは勾配情報を用いて、検出損失に大きな影響を及ぼす特徴を識別し、割り当て、生徒が教師から最も関連性の高い特徴を学習できるようにする。
KITTIとCOCO-Trafficデータセットの実験は、対象検出のための知識蒸留における本手法の有効性を実証する。
論文 参考訳(メタデータ) (2023-03-07T21:09:09Z) - Exploring Inconsistent Knowledge Distillation for Object Detection with
Data Augmentation [66.25738680429463]
物体検出のための知識蒸留(KD)は、教師モデルから知識を伝達することで、コンパクトな検出器を訓練することを目的としている。
教師モデルの反直感的知覚に固有の知識を蒸留することを目的とした,一貫性のない知識蒸留(IKD)を提案する。
本手法は, 1段, 2段, アンカーフリーの物体検出器において, 最先端のKDベースラインより優れる。
論文 参考訳(メタデータ) (2022-09-20T16:36:28Z) - Localization Distillation for Object Detection [134.12664548771534]
物体検出のための従来の知識蒸留法(KD)は、分類ロジットを模倣するのではなく、主に特徴模倣に焦点を当てている。
本稿では,教師から生徒に効率よくローカライズ知識を伝達できる新しいローカライズ蒸留法を提案する。
われわれは,ロジット模倣が特徴模倣より優れることを示すとともに,ロージット模倣が何年もの間,ロージット模倣が不十分であった理由として,ロージット蒸留が欠如していることが重要である。
論文 参考訳(メタデータ) (2022-04-12T17:14:34Z) - Label Assignment Distillation for Object Detection [0.0]
我々は,オブジェクト検出におけるラベル割り当てに着目した,単純だが効果的な知識蒸留手法を考案した。
提案手法は, MSCOCO 2017ベンチマークで有望な結果を示す。
論文 参考訳(メタデータ) (2021-09-16T10:11:58Z) - Distilling Image Classifiers in Object Detectors [81.63849985128527]
本研究では, 物体検出の事例について検討し, 標準検出器-検出器蒸留法に従わず, 分類器-検出器間知識伝達フレームワークを導入する。
特に,検知器の認識精度とローカライゼーション性能を両立させるため,分類教師を利用する手法を提案する。
論文 参考訳(メタデータ) (2021-06-09T16:50:10Z) - SWIPENET: Object detection in noisy underwater images [41.35601054297707]
本稿では,この2つの問題に対処するために,Sample-WeIghted hyPEr Network(SWIPENET)とCurriculum Multi-Class Adaboost(CMA)という堅牢なトレーニングパラダイムを提案する。
SWIPENETのバックボーンは、複数の高解像度かつセマンティックリッチなハイパーフィーチャーマップを生成し、小さなオブジェクト検出を大幅に改善する。
簡単な概念から難しい概念まで学習を促進する人間の教育プロセスに着想を得て,まず騒音の影響を受けないクリーンな検出器を訓練するCMA訓練パラダイムを提案する。
論文 参考訳(メタデータ) (2020-10-19T16:41:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。