論文の概要: Semi-supervised Semantic Segmentation with Mutual Knowledge Distillation
- arxiv url: http://arxiv.org/abs/2208.11499v1
- Date: Wed, 24 Aug 2022 12:47:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-25 12:51:37.495981
- Title: Semi-supervised Semantic Segmentation with Mutual Knowledge Distillation
- Title(参考訳): 相互知識蒸留による半教師付き意味セグメンテーション
- Authors: Jianlong Yuan, Jinchao Ge, Qi Qian, Zhibin Wang, Fan Wang, Yifan Liu
- Abstract要約: 相互知識蒸留(MKD)と呼ばれる新しい整合性正規化フレームワークを提案する。
整合性正規化法に基づく2つの補助平均教師モデルを提案する。
本フレームワークはトレーニングサンプルの多様性を著しく向上させる。
- 参考スコア(独自算出の注目度): 24.94152138630692
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Consistency regularization has been widely studied in recent semi-supervised
semantic segmentation methods. Remarkable performance has been achieved,
benefiting from image, feature, and network perturbations. To make full use of
these perturbations, in this work, we propose a new consistency regularization
framework called mutual knowledge distillation (MKD). We innovatively introduce
two auxiliary mean-teacher models based on the consistency regularization
method. More specifically, we use the pseudo label generated by one mean
teacher to supervise the other student network to achieve a mutual knowledge
distillation between two branches. In addition to using image-level strong and
weak augmentation, we also employ feature augmentation considering implicit
semantic distributions to add further perturbations to the students. The
proposed framework significantly increases the diversity of the training
samples. Extensive experiments on public benchmarks show that our framework
outperforms previous state-of-the-art(SOTA) methods under various
semi-supervised settings.
- Abstract(参考訳): 一貫性規則化は、最近の半教師付きセマンティックセグメンテーション法で広く研究されている。
画像、特徴、ネットワーク摂動の恩恵を受け、注目すべきパフォーマンスが達成されている。
本稿では,これらの摂動をフル活用するために,相互知識蒸留(MKD)と呼ばれる新しい整合性正規化フレームワークを提案する。
整合性正規化法に基づく2つの補助的平均教師モデルを導入する。
より具体的には、ある平均教師が生成した擬似ラベルを用いて、他の学生ネットワークを監督し、2つの分枝間の相互知識蒸留を実現する。
また,画像レベルの強みと弱みに加えて,暗黙的な意味分布を考慮した特徴拡張を用いて,学生にさらなる摂動を加える。
提案手法はトレーニングサンプルの多様性を著しく向上させる。
各種半教師付き環境下でのSOTA(State-of-the-art)手法よりも優れた性能を示した。
関連論文リスト
- PMT: Progressive Mean Teacher via Exploring Temporal Consistency for Semi-Supervised Medical Image Segmentation [51.509573838103854]
医用画像セグメンテーションのための半教師付き学習フレームワークであるプログレッシブ平均教師(PMT)を提案する。
我々のPMTは、トレーニングプロセスにおいて、堅牢で多様な特徴を学習することで、高忠実な擬似ラベルを生成する。
CT と MRI の異なる2つのデータセットに対する実験結果から,本手法が最先端の医用画像分割法より優れていることが示された。
論文 参考訳(メタデータ) (2024-09-08T15:02:25Z) - Mutual Distillation Learning For Person Re-Identification [27.350415735863184]
MDPR(Multual Distillation Learning for Person Re-identification)という新しい手法を提案する。
本手法は,一様水平分割戦略により局所特徴を抽出するハードコンテンツブランチと,前景と背景を動的に区別するソフトコンテンツブランチの2つを含む。
提案手法はDukeC-reIDデータセット上のmAP/Rank-1の8.7%/94.4%の驚くべき値を得る。
論文 参考訳(メタデータ) (2024-01-12T07:49:02Z) - Knowledge Distillation Meets Open-Set Semi-Supervised Learning [69.21139647218456]
本研究では,事前学習した教師から対象学生へ,表現的知識を意味的に蒸留する新しいモデル名(bfem shortname)を提案する。
問題レベルでは、これは知識蒸留とオープンセット半教師付き学習(SSL)との興味深い関係を確立する。
我々のショートネームは、粗い物体分類と微妙な顔認識タスクの両方において、最先端の知識蒸留法よりもかなり優れている。
論文 参考訳(メタデータ) (2022-05-13T15:15:27Z) - Weakly Supervised Semantic Segmentation via Alternative Self-Dual
Teaching [82.71578668091914]
本稿では,分類とマスク・リファインメント・コンポーネントを統合された深層モデルに組み込む,コンパクトな学習フレームワークを確立する。
本稿では,高品質な知識相互作用を促進するために,新たな自己双対学習(ASDT)機構を提案する。
論文 参考訳(メタデータ) (2021-12-17T11:56:56Z) - Deep Semi-supervised Knowledge Distillation for Overlapping Cervical
Cell Instance Segmentation [54.49894381464853]
本稿では, ラベル付きデータとラベルなしデータの両方を, 知識蒸留による精度向上に活用することを提案する。
摂動に敏感なサンプルマイニングを用いたマスク誘導型平均教師フレームワークを提案する。
実験の結果,ラベル付きデータのみから学習した教師付き手法と比較して,提案手法は性能を著しく向上することがわかった。
論文 参考訳(メタデータ) (2020-07-21T13:27:09Z) - ClassMix: Segmentation-Based Data Augmentation for Semi-Supervised
Learning [4.205692673448206]
そこで本研究では,未ラベルのサンプルを混合して拡張を生成するClassMixと呼ばれる新しいデータ拡張機構を提案する。
本手法を2つの半教師付きセマンティックセマンティックセマンティクスベンチマークで評価し,その結果を得た。
論文 参考訳(メタデータ) (2020-07-15T18:21:17Z) - Creating Something from Nothing: Unsupervised Knowledge Distillation for
Cross-Modal Hashing [132.22315429623575]
クロスモーダルハッシュ(CMH)は、特に視覚や言語において、異なるモーダルからのコンテンツを同じ空間にマッピングすることができる。
CMHには2つの主要なフレームワークがある。
本稿では,教師なし手法を用いて教師なし手法を導出する手法を提案する。
論文 参考訳(メタデータ) (2020-04-01T08:32:15Z) - Learning From Multiple Experts: Self-paced Knowledge Distillation for
Long-tailed Classification [106.08067870620218]
我々は,LFME(Learning From Multiple Experts)と呼ばれる自己評価型知識蒸留フレームワークを提案する。
提案するLFMEフレームワークは,複数の'Experts'からの知識を集約して,統一された学生モデルを学ぶ。
提案手法は,最先端の手法に比べて優れた性能が得られることを示す。
論文 参考訳(メタデータ) (2020-01-06T12:57:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。