論文の概要: Augmentation-Free Dense Contrastive Knowledge Distillation for Efficient
Semantic Segmentation
- arxiv url: http://arxiv.org/abs/2312.04168v1
- Date: Thu, 7 Dec 2023 09:37:28 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-08 15:30:25.879340
- Title: Augmentation-Free Dense Contrastive Knowledge Distillation for Efficient
Semantic Segmentation
- Title(参考訳): 効率的なセマンティックセグメンテーションのための拡張自由度コントラスト知識蒸留
- Authors: Jiawei Fan, Chao Li, Xiaolong Liu, Meina Song, Anbang Yao
- Abstract要約: Af-DCD(Augmentation-free Dense Contrastive Knowledge Distillation)は、新しいコントラスト蒸留学習パラダイムである。
Af-DCDはセマンティックセグメンテーションのためのコンパクトで正確なディープニューラルネットワークを訓練する。
- 参考スコア(独自算出の注目度): 16.957139277317005
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, knowledge distillation methods based on contrastive learning
have achieved promising results on image classification and object detection
tasks. However, in this line of research, we note that less attention is paid
to semantic segmentation. Existing methods heavily rely on data augmentation
and memory buffer, which entail high computational resource demands when
applying them to handle semantic segmentation that requires to preserve
high-resolution feature maps for making dense pixel-wise predictions. In order
to address this problem, we present Augmentation-free Dense Contrastive
Knowledge Distillation (Af-DCD), a new contrastive distillation learning
paradigm to train compact and accurate deep neural networks for semantic
segmentation applications. Af-DCD leverages a masked feature mimicking
strategy, and formulates a novel contrastive learning loss via taking advantage
of tactful feature partitions across both channel and spatial dimensions,
allowing to effectively transfer dense and structured local knowledge learnt by
the teacher model to a target student model while maintaining training
efficiency. Extensive experiments on five mainstream benchmarks with various
teacher-student network pairs demonstrate the effectiveness of our approach.
For instance, the DeepLabV3-Res18|DeepLabV3-MBV2 model trained by Af-DCD
reaches 77.03%|76.38% mIOU on Cityscapes dataset when choosing DeepLabV3-Res101
as the teacher, setting new performance records. Besides that, Af-DCD achieves
an absolute mIOU improvement of 3.26%|3.04%|2.75%|2.30%|1.42% compared with
individually trained counterpart on Cityscapes|Pascal
VOC|Camvid|ADE20K|COCO-Stuff-164K. Code is available at
https://github.com/OSVAI/Af-DCD
- Abstract(参考訳): 近年,画像分類や物体検出タスクにおいて,コントラスト学習に基づく知識蒸留法が有望な成果を上げている。
しかし,本研究では,意味セグメンテーションにはあまり注意が払われていないことに注意する。
既存の手法はデータ拡張とメモリバッファに大きく依存しており、高解像度の特徴マップの保存を必要とするセマンティックセグメンテーションを扱う際に高い計算資源を必要とする。
そこで本研究では,この問題を解決するために,コンパクトで高精度な深層ニューラルネットワークを訓練する新しいコントラスト蒸留学習パラダイムであるaf-dcd(addation-free contrastive knowledge distillation)を提案する。
af-dcdはマスキング特徴模倣戦略を活用し、チャネルと空間の両次元にまたがるテイクフルな特徴分割を利用して、新しいコントラスト学習損失を定式化し、教師モデルによって学習された高密度で構造化されたローカル知識を、学習効率を維持しつつ、ターゲットの学生モデルに効果的に移すことができる。
教師と学生のネットワークペアを用いた5つの主要なベンチマーク実験により,本手法の有効性が示された。
例えば、Af-DCDによって訓練されたDeepLabV3-Res18|DeepLabV3-MBV2モデルは、Cityscapesデータセット上で77.03%|76.38% mIOUに達した。
それに加えて、af-dcdは3.26%|3.04%|2.75%|2.30%|1.42%という絶対的なmiou改善を達成している。
コードはhttps://github.com/OSVAI/Af-DCDで入手できる。
関連論文リスト
- I2CKD : Intra- and Inter-Class Knowledge Distillation for Semantic Segmentation [1.433758865948252]
本稿では,イメージセマンティックセグメンテーションに適した新しい知識蒸留法を提案する。
本手法の焦点は,教師(面倒なモデル)と生徒(コンパクトモデル)の中間層間の知識の獲得と伝達である。
論文 参考訳(メタデータ) (2024-03-27T12:05:22Z) - Class-Imbalanced Semi-Supervised Learning for Large-Scale Point Cloud
Semantic Segmentation via Decoupling Optimization [64.36097398869774]
半教師付き学習(SSL)は大規模3Dシーン理解のための活発な研究課題である。
既存のSSLベースのメソッドは、クラス不均衡とポイントクラウドデータのロングテール分布による厳しいトレーニングバイアスに悩まされている。
本稿では,特徴表現学習と分類器を別の最適化方法で切り離してバイアス決定境界を効果的にシフトする,新しいデカップリング最適化フレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-13T04:16:40Z) - 2D Feature Distillation for Weakly- and Semi-Supervised 3D Semantic
Segmentation [92.17700318483745]
合成訓練された2Dセマンティックセマンティックセグメンテーションネットワークから高レベル特徴情報を蒸留するアイデアに基づく画像誘導ネットワーク(IGNet)を提案する。
IGNetは、ScribbleKITTI上の弱い教師付きLiDARセマンティックセマンティックセグメンテーションの最先端の結果を達成し、8%のラベル付きポイントしか持たない完全な教師付きトレーニングに対して最大98%のパフォーマンスを誇っている。
論文 参考訳(メタデータ) (2023-11-27T07:57:29Z) - AICSD: Adaptive Inter-Class Similarity Distillation for Semantic
Segmentation [12.92102548320001]
本稿では,知識蒸留を目的としたICSD (Inter-Class similarity Distillation) を提案する。
提案手法は,教師ネットワークから生徒ネットワークへの高次関係を,ネットワーク出力から各クラス毎のクラス内分布を独立に計算することによって伝達する。
セマンティックセグメンテーションのためのよく知られた2つのデータセットであるCityscapesとPascal VOC 2012の実験により、提案手法の有効性が検証された。
論文 参考訳(メタデータ) (2023-08-08T13:17:20Z) - Foundation Model Drives Weakly Incremental Learning for Semantic
Segmentation [12.362400851574872]
セマンティックセグメンテーション(WILSS)のための弱い漸進的な学習は、新しく魅力的なタスクである。
本稿では,WILSS のための新しいデータ効率フレームワーク FMWISS を提案する。
論文 参考訳(メタデータ) (2023-02-28T02:21:42Z) - Point-to-Voxel Knowledge Distillation for LiDAR Semantic Segmentation [74.67594286008317]
本稿では,大きな教師モデルから,LiDARセマンティックセグメンテーションのためのスリムな学生ネットワークへの知識の抽出の問題に対処する。
本稿では,点レベルとボクセルレベルの両方から隠れた知識を伝達するPVDを提案する。
論文 参考訳(メタデータ) (2022-06-05T05:28:32Z) - Distilling Inter-Class Distance for Semantic Segmentation [17.76592932725305]
本稿では,教師ネットワークから学生ネットワークへ特徴空間内のクラス間距離を伝達するための,クラス間距離蒸留(IDD)手法を提案する。
本手法はセマンティックセグメンテーションモデルの精度の向上と最先端の性能向上に有効である。
論文 参考訳(メタデータ) (2022-05-07T13:13:55Z) - G-DetKD: Towards General Distillation Framework for Object Detectors via
Contrastive and Semantic-guided Feature Imitation [49.421099172544196]
そこで本研究では,すべてのピラミッドレベルにまたがる特徴ペア間のソフトマッチングを自動的に行う,意味誘導型特徴模倣手法を提案する。
また,異なる特徴領域間の関係で符号化された情報を効果的に捉えるために,コントラスト蒸留を導入する。
本手法は,(1)フレームワークのコンポーネントを別々に使用した場合に,既存の検出KD技術よりも優れた性能を発揮する。
論文 参考訳(メタデータ) (2021-08-17T07:44:27Z) - Dense Contrastive Learning for Self-Supervised Visual Pre-Training [102.15325936477362]
入力画像の2つのビュー間の画素レベルでの差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分)を最適化することにより自己教師学習を実現する。
ベースライン法であるMoCo-v2と比較すると,計算オーバーヘッドは1%遅かった。
論文 参考訳(メタデータ) (2020-11-18T08:42:32Z) - Deep Semi-supervised Knowledge Distillation for Overlapping Cervical
Cell Instance Segmentation [54.49894381464853]
本稿では, ラベル付きデータとラベルなしデータの両方を, 知識蒸留による精度向上に活用することを提案する。
摂動に敏感なサンプルマイニングを用いたマスク誘導型平均教師フレームワークを提案する。
実験の結果,ラベル付きデータのみから学習した教師付き手法と比較して,提案手法は性能を著しく向上することがわかった。
論文 参考訳(メタデータ) (2020-07-21T13:27:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。