論文の概要: Semi-supervised Semantic Segmentation with Mutual Knowledge Distillation
- arxiv url: http://arxiv.org/abs/2208.11499v3
- Date: Wed, 30 Aug 2023 06:57:57 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-31 18:12:40.250295
- Title: Semi-supervised Semantic Segmentation with Mutual Knowledge Distillation
- Title(参考訳): 相互知識蒸留による半教師付き意味セグメンテーション
- Authors: Jianlong Yuan, Jinchao Ge, Zhibin Wang, Yifan Liu
- Abstract要約: 相互知識蒸留(MKD)と呼ばれる新しい整合正則化フレームワークを提案する。
我々は,教師が生み出した擬似ラベルを用いて,学生ネットワークを監督し,両者の相互知識の蒸留を実現する。
我々のフレームワークは、様々な半教師付き環境下で、従来の最先端(SOTA)メソッドよりも優れています。
- 参考スコア(独自算出の注目度): 20.741353967123366
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Consistency regularization has been widely studied in recent semisupervised
semantic segmentation methods, and promising performance has been achieved. In
this work, we propose a new consistency regularization framework, termed mutual
knowledge distillation (MKD), combined with data and feature augmentation. We
introduce two auxiliary mean-teacher models based on consistency
regularization. More specifically, we use the pseudo-labels generated by a mean
teacher to supervise the student network to achieve a mutual knowledge
distillation between the two branches. In addition to using image-level strong
and weak augmentation, we also discuss feature augmentation. This involves
considering various sources of knowledge to distill the student network. Thus,
we can significantly increase the diversity of the training samples.
Experiments on public benchmarks show that our framework outperforms previous
state-of-the-art (SOTA) methods under various semi-supervised settings. Code is
available at semi-mmseg.
- Abstract(参考訳): 最近の半教師付きセマンティックセグメンテーション法では一貫性の正則化が広く研究されており、有望な性能が達成されている。
本研究では, 相互知識蒸留(mkd)とデータと機能拡張を併用した新しい一貫性正規化フレームワークを提案する。
整合性正規化に基づく2つの補助平均教師モデルを導入する。
具体的には、平均教師が生成した擬似ラベルを用いて、学生ネットワークを監督し、2つのブランチ間の相互知識蒸留を実現する。
画像レベルの強みと弱みに加えて,機能拡張についても論じる。
これは学生ネットワークを蒸留するために様々な知識の源を考えることである。
これにより、トレーニングサンプルの多様性が大幅に向上する。
各種半教師付き環境下でのSOTA(State-of-the-art)手法よりも優れた性能を示した。
コードはセミmmsegで入手できる。
関連論文リスト
- PMT: Progressive Mean Teacher via Exploring Temporal Consistency for Semi-Supervised Medical Image Segmentation [51.509573838103854]
医用画像セグメンテーションのための半教師付き学習フレームワークであるプログレッシブ平均教師(PMT)を提案する。
我々のPMTは、トレーニングプロセスにおいて、堅牢で多様な特徴を学習することで、高忠実な擬似ラベルを生成する。
CT と MRI の異なる2つのデータセットに対する実験結果から,本手法が最先端の医用画像分割法より優れていることが示された。
論文 参考訳(メタデータ) (2024-09-08T15:02:25Z) - Mutual Distillation Learning For Person Re-Identification [27.350415735863184]
MDPR(Multual Distillation Learning for Person Re-identification)という新しい手法を提案する。
本手法は,一様水平分割戦略により局所特徴を抽出するハードコンテンツブランチと,前景と背景を動的に区別するソフトコンテンツブランチの2つを含む。
提案手法はDukeC-reIDデータセット上のmAP/Rank-1の8.7%/94.4%の驚くべき値を得る。
論文 参考訳(メタデータ) (2024-01-12T07:49:02Z) - Knowledge Distillation Meets Open-Set Semi-Supervised Learning [69.21139647218456]
本研究では,事前学習した教師から対象学生へ,表現的知識を意味的に蒸留する新しいモデル名(bfem shortname)を提案する。
問題レベルでは、これは知識蒸留とオープンセット半教師付き学習(SSL)との興味深い関係を確立する。
我々のショートネームは、粗い物体分類と微妙な顔認識タスクの両方において、最先端の知識蒸留法よりもかなり優れている。
論文 参考訳(メタデータ) (2022-05-13T15:15:27Z) - Weakly Supervised Semantic Segmentation via Alternative Self-Dual
Teaching [82.71578668091914]
本稿では,分類とマスク・リファインメント・コンポーネントを統合された深層モデルに組み込む,コンパクトな学習フレームワークを確立する。
本稿では,高品質な知識相互作用を促進するために,新たな自己双対学習(ASDT)機構を提案する。
論文 参考訳(メタデータ) (2021-12-17T11:56:56Z) - Deep Semi-supervised Knowledge Distillation for Overlapping Cervical
Cell Instance Segmentation [54.49894381464853]
本稿では, ラベル付きデータとラベルなしデータの両方を, 知識蒸留による精度向上に活用することを提案する。
摂動に敏感なサンプルマイニングを用いたマスク誘導型平均教師フレームワークを提案する。
実験の結果,ラベル付きデータのみから学習した教師付き手法と比較して,提案手法は性能を著しく向上することがわかった。
論文 参考訳(メタデータ) (2020-07-21T13:27:09Z) - ClassMix: Segmentation-Based Data Augmentation for Semi-Supervised
Learning [4.205692673448206]
そこで本研究では,未ラベルのサンプルを混合して拡張を生成するClassMixと呼ばれる新しいデータ拡張機構を提案する。
本手法を2つの半教師付きセマンティックセマンティックセマンティクスベンチマークで評価し,その結果を得た。
論文 参考訳(メタデータ) (2020-07-15T18:21:17Z) - Creating Something from Nothing: Unsupervised Knowledge Distillation for
Cross-Modal Hashing [132.22315429623575]
クロスモーダルハッシュ(CMH)は、特に視覚や言語において、異なるモーダルからのコンテンツを同じ空間にマッピングすることができる。
CMHには2つの主要なフレームワークがある。
本稿では,教師なし手法を用いて教師なし手法を導出する手法を提案する。
論文 参考訳(メタデータ) (2020-04-01T08:32:15Z) - Learning From Multiple Experts: Self-paced Knowledge Distillation for
Long-tailed Classification [106.08067870620218]
我々は,LFME(Learning From Multiple Experts)と呼ばれる自己評価型知識蒸留フレームワークを提案する。
提案するLFMEフレームワークは,複数の'Experts'からの知識を集約して,統一された学生モデルを学ぶ。
提案手法は,最先端の手法に比べて優れた性能が得られることを示す。
論文 参考訳(メタデータ) (2020-01-06T12:57:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。