論文の概要: AMD: Adaptive Masked Distillation for Object
- arxiv url: http://arxiv.org/abs/2301.13538v1
- Date: Tue, 31 Jan 2023 10:32:13 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-01 16:58:18.929687
- Title: AMD: Adaptive Masked Distillation for Object
- Title(参考訳): AMD:Adaptive Masked Distillation for Object
- Authors: Guang Yang and Yin Tang and Jun Li and Jianhua Xu and Xili Wan
- Abstract要約: 本研究では,物体検出のための空間チャネル適応型マスク蒸留(AMD)ネットワークを提案する。
学生のネットワークチャネルを適応させるために、シンプルで効率的なモジュールを使用します。
提案手法により, 学生ネットワークは41.3%, 42.4%, 42.7%mAPスコアを報告した。
- 参考スコア(独自算出の注目度): 8.668808292258706
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As a general model compression paradigm, feature-based knowledge distillation
allows the student model to learn expressive features from the teacher
counterpart. In this paper, we mainly focus on designing an effective
feature-distillation framework and propose a spatial-channel adaptive masked
distillation (AMD) network for object detection. More specifically, in order to
accurately reconstruct important feature regions, we first perform
attention-guided feature masking on the feature map of the student network,
such that we can identify the important features via spatially adaptive feature
masking instead of random masking in the previous methods. In addition, we
employ a simple and efficient module to allow the student network channel to be
adaptive, improving its model capability in object perception and detection. In
contrast to the previous methods, more crucial object-aware features can be
reconstructed and learned from the proposed network, which is conducive to
accurate object detection. The empirical experiments demonstrate the
superiority of our method: with the help of our proposed distillation method,
the student networks report 41.3\%, 42.4\%, and 42.7\% mAP scores when
RetinaNet, Cascade Mask-RCNN and RepPoints are respectively used as the teacher
framework for object detection, which outperforms the previous state-of-the-art
distillation methods including FGD and MGD.
- Abstract(参考訳): 一般的なモデル圧縮パラダイムとして、機能に基づく知識蒸留により、生徒は教師から表現的な特徴を学ぶことができる。
本稿では,有効な機能蒸留フレームワークの設計に主眼を置き,物体検出のための空間チャネル適応マスク蒸留(amd)ネットワークを提案する。
より具体的には、重要特徴領域を正確に再構築するために、まず、学生ネットワークの特徴マップ上で注意誘導特徴マスキングを行い、従来の手法ではランダムマスキングではなく、空間適応特徴マスキングを用いて重要特徴を識別する。
さらに,学生のネットワークチャネルを適応させるためのシンプルで効率的なモジュールを用いて,物体認識・検出におけるモデル能力を向上させる。
従来の手法とは対照的に、より重要なオブジェクト認識機能を再構成し、提案したネットワークから学習することで、正確なオブジェクト検出が可能となる。
提案した蒸留法を用いて, RetinaNet, Cascade Mask-RCNN, RepPointsがそれぞれ対象検出の教師フレームワークとして用いられ, FGD, MGDなどの従来の最先端蒸留法よりも優れていた場合, 学生ネットワークは41.3\%, 42.4\%, 42.7\% mAPスコアを報告した。
関連論文リスト
- DFMSD: Dual Feature Masking Stage-wise Knowledge Distillation for Object Detection [6.371066478190595]
DFMSDと呼ばれる新しい二重特徴マスキングヘテロジニアス蒸留フレームワークがオブジェクト検出のために提案されている。
マスキング強化戦略とステージワイズ学習を組み合わせて特徴マスキング再構築を改善する。
オブジェクト検出タスクの実験は、我々のアプローチの可能性を実証する。
論文 参考訳(メタデータ) (2024-07-18T04:19:14Z) - Generative Model-based Feature Knowledge Distillation for Action
Recognition [11.31068233536815]
本稿では,軽量学生モデルの学習のための生成モデルを用いた,革新的な知識蒸留フレームワークについて紹介する。
提案手法の有効性は,多種多様な人気データセットに対する総合的な実験によって実証される。
論文 参考訳(メタデータ) (2023-12-14T03:55:29Z) - Innovative Horizons in Aerial Imagery: LSKNet Meets DiffusionDet for
Advanced Object Detection [55.2480439325792]
本稿では,LSKNetのバックボーンをDiffusionDetヘッドに統合したオブジェクト検出モデルの詳細な評価を行う。
提案手法は平均精度(MAP)を約45.7%向上させる。
この進歩は、提案された修正の有効性を強調し、航空画像解析の新しいベンチマークを設定する。
論文 参考訳(メタデータ) (2023-11-21T19:49:13Z) - Object-centric Cross-modal Feature Distillation for Event-based Object
Detection [87.50272918262361]
RGB検出器は、イベントデータのばらつきと視覚的詳細の欠如により、イベントベースの検出器よりも優れている。
これら2つのモード間の性能ギャップを縮めるための新しい知識蒸留手法を開発した。
対象中心蒸留により,イベントベースの学生物体検出装置の性能が大幅に向上することを示す。
論文 参考訳(メタデータ) (2023-11-09T16:33:08Z) - Self-Supervised Learning for Visual Relationship Detection through
Masked Bounding Box Reconstruction [6.798515070856465]
表現学習のための新しい自己教師型アプローチ,特に視覚的関係検出(VRD)の課題について述べる。
Masked Image Modeling (MIM) の有効性を活かして, Masked bounding Box Reconstruction (MBBR) を提案する。
論文 参考訳(メタデータ) (2023-11-08T16:59:26Z) - DMKD: Improving Feature-based Knowledge Distillation for Object
Detection Via Dual Masking Augmentation [10.437237606721222]
我々は、空間的に重要かつチャネル的に情報的手がかりの両方をキャプチャできるDMKD(Dual Masked Knowledge Distillation)フレームワークを考案した。
対象物検出タスクの実験により,本手法の助けを借りて,学生ネットワークは4.1%,4.3%の性能向上を達成した。
論文 参考訳(メタデータ) (2023-09-06T05:08:51Z) - Unleashing Mask: Explore the Intrinsic Out-of-Distribution Detection
Capability [70.72426887518517]
Out-of-Distribution(OOD)検出は、機械学習モデルを現実世界のアプリケーションにデプロイする際に、セキュアAIの必須の側面である。
本稿では,IDデータを用いた学習モデルのOOD識別能力を復元する新しい手法であるUnleashing Maskを提案する。
本手法では, マスクを用いて記憶した非定型サンプルを抽出し, モデルを微調整するか, 導入したマスクでプルーする。
論文 参考訳(メタデータ) (2023-06-06T14:23:34Z) - A Simple and Generic Framework for Feature Distillation via Channel-wise
Transformation [35.233203757760066]
学習可能な非線形チャネルワイズ変換を提案し,教師モデルと生徒の特徴を一致させる。
本手法は,様々なコンピュータビジョンタスクにおいて,大幅な性能向上を実現する。
論文 参考訳(メタデータ) (2023-03-23T12:13:29Z) - Exploring Target Representations for Masked Autoencoders [78.57196600585462]
目的表現の注意深い選択は、よい表現を学ぶために不要であることを示す。
本研究では,多段階のマスク蒸留パイプラインを提案し,無作為なモデルを教師として利用する。
自己指導型自己指導法を非自明なマージンで上回り, 自己指導型教員(dBOT)によるマスク付き知識蒸留を行う手法を提案する。
論文 参考訳(メタデータ) (2022-09-08T16:55:19Z) - Aligning Pretraining for Detection via Object-Level Contrastive Learning [57.845286545603415]
画像レベルのコントラスト表現学習は、伝達学習の汎用モデルとして非常に有効であることが証明されている。
我々は、これは準最適である可能性があり、従って、自己教師付きプレテキストタスクと下流タスクのアライメントを促進する設計原則を提唱する。
Selective Object Contrastive Learning (SoCo) と呼ばれる本手法は,COCO検出における伝達性能の最先端化を実現する。
論文 参考訳(メタデータ) (2021-06-04T17:59:52Z) - Deep Semi-supervised Knowledge Distillation for Overlapping Cervical
Cell Instance Segmentation [54.49894381464853]
本稿では, ラベル付きデータとラベルなしデータの両方を, 知識蒸留による精度向上に活用することを提案する。
摂動に敏感なサンプルマイニングを用いたマスク誘導型平均教師フレームワークを提案する。
実験の結果,ラベル付きデータのみから学習した教師付き手法と比較して,提案手法は性能を著しく向上することがわかった。
論文 参考訳(メタデータ) (2020-07-21T13:27:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。