論文の概要: Attention-guided Feature Distillation for Semantic Segmentation
- arxiv url: http://arxiv.org/abs/2403.05451v1
- Date: Fri, 8 Mar 2024 16:57:47 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-11 12:53:22.374752
- Title: Attention-guided Feature Distillation for Semantic Segmentation
- Title(参考訳): セマンティクスセグメンテーションのための注意誘導型特徴蒸留
- Authors: Amir M. Mansourian, Arya Jalali, Rozhan Ahmadi, Shohreh Kasaei
- Abstract要約: CBAM(Convolutional Block Attention Module)を応用したAttnFD(AttnFD)法の提案
AttnFDはセマンティックセグメンテーションにおいて優れたパフォーマンスを示し、PascalVoc 2012とCityscapesのデータセット上で、Union(mIoU)平均のインターセクションで最先端の結果を達成する。
- 参考スコア(独自算出の注目度): 9.115508086522887
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In contrast to existing complex methodologies commonly employed for
distilling knowledge from a teacher to a student, the pro-posed method
showcases the efficacy of a simple yet powerful method for utilizing refined
feature maps to transfer attention. The proposed method has proven to be
effective in distilling rich information, outperforming existing methods in
semantic segmentation as a dense prediction task. The proposed Attention-guided
Feature Distillation (AttnFD) method, em-ploys the Convolutional Block
Attention Module (CBAM), which refines feature maps by taking into account both
channel-specific and spatial information content. By only using the Mean
Squared Error (MSE) loss function between the refined feature maps of the
teacher and the student,AttnFD demonstrates outstanding performance in semantic
segmentation, achieving state-of-the-art results in terms of mean Intersection
over Union (mIoU) on the PascalVoc 2012 and Cityscapes datasets. The Code is
available at https://github.com/AmirMansurian/AttnFD.
- Abstract(参考訳): 教師から生徒への知識の蒸留に一般的に用いられている既存の複雑な方法論とは対照的に,提案手法は,改良された特徴マップを応用して注目を伝達する,シンプルかつ強力な手法の有効性を示す。
提案手法は, セマンティックセグメンテーションにおける既存手法を高密度な予測課題として優れ, リッチな情報の蒸留に有効であることが証明された。
AttnFD (Convolutional Block Attention Module, CBAM) は, チャネル固有情報と空間情報の両方を考慮し, 特徴マップを改良する手法である。
AttnFDは、教師と生徒の洗練された特徴マップ間の平均正方形誤差(MSE)損失関数のみを使用することで、意味的セグメンテーションにおける優れたパフォーマンスを示し、PascalVoc 2012とCityscapesデータセットにおける平均的統合(mIoU)の平均的な結果を達成する。
コードはhttps://github.com/AmirMansurian/AttnFD.comで入手できる。
関連論文リスト
- Collaborative Feature-Logits Contrastive Learning for Open-Set Semi-Supervised Object Detection [75.02249869573994]
オープンセットのシナリオでは、ラベルなしデータセットには、イン・ディストリビューション(ID)クラスとアウト・オブ・ディストリビューション(OOD)クラスの両方が含まれている。
このような設定で半教師付き検出器を適用すると、OODクラスをIDクラスとして誤分類する可能性がある。
我々は、CFL-Detector(Collaborative Feature-Logits Detector)と呼ばれるシンプルで効果的な方法を提案する。
論文 参考訳(メタデータ) (2024-11-20T02:57:35Z) - iSeg: An Iterative Refinement-based Framework for Training-free Segmentation [85.58324416386375]
本稿では,自己注意マップを用いた横断注意マップの繰り返し精錬に関する実験的検討を行った。
トレーニング不要セグメンテーションのための効果的な反復改良フレームワークiSegを提案する。
提案したiSegは,mIoUの3.8%の絶対ゲインを達成している。
論文 参考訳(メタデータ) (2024-09-05T03:07:26Z) - I2CKD : Intra- and Inter-Class Knowledge Distillation for Semantic Segmentation [1.433758865948252]
本稿では,イメージセマンティックセグメンテーションに適した新しい知識蒸留法を提案する。
本手法の焦点は,教師(面倒なモデル)と生徒(コンパクトモデル)の中間層間の知識の獲得と伝達である。
論文 参考訳(メタデータ) (2024-03-27T12:05:22Z) - Auxiliary Tasks Enhanced Dual-affinity Learning for Weakly Supervised
Semantic Segmentation [79.05949524349005]
AuxSegNet+は、サリエンシマップから豊富な情報を探索する弱教師付き補助学習フレームワークである。
また,サリエンシとセグメンテーションの特徴マップから画素レベルの親和性を学習するためのクロスタスク親和性学習機構を提案する。
論文 参考訳(メタデータ) (2024-03-02T10:03:21Z) - AICSD: Adaptive Inter-Class Similarity Distillation for Semantic
Segmentation [12.92102548320001]
本稿では,知識蒸留を目的としたICSD (Inter-Class similarity Distillation) を提案する。
提案手法は,教師ネットワークから生徒ネットワークへの高次関係を,ネットワーク出力から各クラス毎のクラス内分布を独立に計算することによって伝達する。
セマンティックセグメンテーションのためのよく知られた2つのデータセットであるCityscapesとPascal VOC 2012の実験により、提案手法の有効性が検証された。
論文 参考訳(メタデータ) (2023-08-08T13:17:20Z) - Knowledge Diffusion for Distillation [53.908314960324915]
知識蒸留(KD)における教師と学生の表現ギャップ
これらの手法の本質は、ノイズ情報を捨て、その特徴の貴重な情報を蒸留することである。
DiffKDと呼ばれる新しいKD手法を提案し、拡散モデルを用いて特徴を明示的に識別し一致させる。
論文 参考訳(メタデータ) (2023-05-25T04:49:34Z) - Distilling Inter-Class Distance for Semantic Segmentation [17.76592932725305]
本稿では,教師ネットワークから学生ネットワークへ特徴空間内のクラス間距離を伝達するための,クラス間距離蒸留(IDD)手法を提案する。
本手法はセマンティックセグメンテーションモデルの精度の向上と最先端の性能向上に有効である。
論文 参考訳(メタデータ) (2022-05-07T13:13:55Z) - Leveraging Auxiliary Tasks with Affinity Learning for Weakly Supervised
Semantic Segmentation [88.49669148290306]
そこで我々はAuxSegNetと呼ばれる弱教師付きマルチタスク・フレームワークを提案し,サリエンシ検出とマルチラベル画像分類を補助タスクとして活用する。
同様の構造的セマンティクスに着想を得て,サリエンシとセグメンテーションの表現から,クロスタスクなグローバル画素レベルの親和性マップを学習することを提案する。
学習されたクロスタスク親和性は、両方のタスクに対して改善された擬似ラベルを提供するために、唾液度予測を洗練し、CAMマップを伝播するために使用することができる。
論文 参考訳(メタデータ) (2021-07-25T11:39:58Z) - Deep Semi-supervised Knowledge Distillation for Overlapping Cervical
Cell Instance Segmentation [54.49894381464853]
本稿では, ラベル付きデータとラベルなしデータの両方を, 知識蒸留による精度向上に活用することを提案する。
摂動に敏感なサンプルマイニングを用いたマスク誘導型平均教師フレームワークを提案する。
実験の結果,ラベル付きデータのみから学習した教師付き手法と比較して,提案手法は性能を著しく向上することがわかった。
論文 参考訳(メタデータ) (2020-07-21T13:27:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。