論文の概要: Weakly Supervised Semantic Segmentation via Alternative Self-Dual
Teaching
- arxiv url: http://arxiv.org/abs/2112.09459v1
- Date: Fri, 17 Dec 2021 11:56:56 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-20 14:08:26.689270
- Title: Weakly Supervised Semantic Segmentation via Alternative Self-Dual
Teaching
- Title(参考訳): オルタナティブ・セルフ・デュアル・ティーチングによる弱教師付き意味セグメンテーション
- Authors: Dingwen Zhang, Wenyuan Zeng, Guangyu Guo, Chaowei Fang, Lechao Cheng,
Junwei Han
- Abstract要約: 本稿では,分類とマスク・リファインメント・コンポーネントを統合された深層モデルに組み込む,コンパクトな学習フレームワークを確立する。
本稿では,高品質な知識相互作用を促進するために,新たな自己双対学習(ASDT)機構を提案する。
- 参考スコア(独自算出の注目度): 82.71578668091914
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Current weakly supervised semantic segmentation (WSSS) frameworks usually
contain the separated mask-refinement model and the main semantic region mining
model. These approaches would contain redundant feature extraction backbones
and biased learning objectives, making them computational complex yet
sub-optimal to addressing the WSSS task. To solve this problem, this paper
establishes a compact learning framework that embeds the classification and
mask-refinement components into a unified deep model. With the shared feature
extraction backbone, our model is able to facilitate knowledge sharing between
the two components while preserving a low computational complexity. To
encourage high-quality knowledge interaction, we propose a novel alternative
self-dual teaching (ASDT) mechanism. Unlike the conventional distillation
strategy, the knowledge of the two teacher branches in our model is
alternatively distilled to the student branch by a Pulse Width Modulation
(PWM), which generates PW wave-like selection signal to guide the knowledge
distillation process. In this way, the student branch can help prevent the
model from falling into local minimum solutions caused by the imperfect
knowledge provided of either teacher branch. Comprehensive experiments on the
PASCAL VOC 2012 and COCO-Stuff 10K demonstrate the effectiveness of the
proposed alternative self-dual teaching mechanism as well as the new
state-of-the-art performance of our approach.
- Abstract(参考訳): 現在のweakly supervised semantic segmentation(wsss)フレームワークは、通常、分離されたマスク定義モデルと主要なセマンティック領域マイニングモデルを含んでいる。
これらのアプローチには冗長な特徴抽出バックボーンとバイアス付き学習目標が含まれており、WSSSタスクに対処するには計算が複雑だが準最適である。
本稿では,この問題を解決するために,分類とマスク定義の要素を統一した深層モデルに組み込む,コンパクトな学習フレームワークを構築した。
共有特徴抽出バックボーンにより,計算複雑性の低さを保ちつつ,2つのコンポーネント間の知識共有を容易にする。
高品質な知識相互作用を促進するために,新しい自己双対指導機構を提案する。
従来の蒸留戦略とは異なり、本モデルにおける2つの教員分枝の知識をパルス幅変調(pwm)により生徒分枝に交互に蒸留し、pw波状選択信号を生成して知識蒸留プロセスを誘導する。
このようにして、学生ブランチは、どちらかの教師ブランチが提供する不完全な知識が原因で、モデルが局所的に最小限の解に落ちるのを防ぐことができる。
PASCAL VOC 2012 と COCO-Stuff 10K の総合的な実験により,提案手法の有効性と,提案手法の新たな最先端性能が示された。
関連論文リスト
- DFMSD: Dual Feature Masking Stage-wise Knowledge Distillation for Object Detection [6.371066478190595]
DFMSDと呼ばれる新しい二重特徴マスキングヘテロジニアス蒸留フレームワークがオブジェクト検出のために提案されている。
マスキング強化戦略とステージワイズ学習を組み合わせて特徴マスキング再構築を改善する。
オブジェクト検出タスクの実験は、我々のアプローチの可能性を実証する。
論文 参考訳(メタデータ) (2024-07-18T04:19:14Z) - Guiding Frame-Level CTC Alignments Using Self-knowledge Distillation [16.35460453348319]
本稿では, 訓練期間中のフレームレベルのアライメントを誘導する自己知識蒸留(SKD)手法を提案する。
全体として、我々のアプローチは資源効率と性能の両方を改善するのに効果的です。
論文 参考訳(メタデータ) (2024-06-12T06:22:52Z) - Mutual Distillation Learning For Person Re-Identification [27.350415735863184]
MDPR(Multual Distillation Learning for Person Re-identification)という新しい手法を提案する。
本手法は,一様水平分割戦略により局所特徴を抽出するハードコンテンツブランチと,前景と背景を動的に区別するソフトコンテンツブランチの2つを含む。
提案手法はDukeC-reIDデータセット上のmAP/Rank-1の8.7%/94.4%の驚くべき値を得る。
論文 参考訳(メタデータ) (2024-01-12T07:49:02Z) - CORSD: Class-Oriented Relational Self Distillation [16.11986532440837]
知識蒸留は、いくつかの制限を保ちながら効果的なモデル圧縮方法を実行する。
制約に対処するために,クラス指向自己蒸留(CORSD)という新しいトレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2023-04-28T16:00:31Z) - EmbedDistill: A Geometric Knowledge Distillation for Information
Retrieval [83.79667141681418]
大規模なニューラルモデル(トランスフォーマーなど)は、情報検索(IR)のための最先端のパフォーマンスを達成する
本研究では,大規模教師モデルで学習したクエリとドキュメント間の相対的幾何を利用した新しい蒸留手法を提案する。
提案手法は, 両エンコーダ (DE) とクロスエンコーダ (CE) の2種類の教師モデルから, 95~97%の教師性能を維持できる1/10の非対称な学生への蒸留に成功した。
論文 参考訳(メタデータ) (2023-01-27T22:04:37Z) - USER: Unified Semantic Enhancement with Momentum Contrast for Image-Text
Retrieval [115.28586222748478]
Image-Text Retrieval (ITR) は、与えられたクエリに意味のあるターゲットインスタンスを、他のモダリティから検索することを目的としている。
既存のアプローチは通常、2つの大きな制限に悩まされる。
論文 参考訳(メタデータ) (2023-01-17T12:42:58Z) - FOSTER: Feature Boosting and Compression for Class-Incremental Learning [52.603520403933985]
ディープニューラルネットワークは、新しいカテゴリーを学ぶ際に破滅的な忘れ方に悩まされる。
本稿では,新たなカテゴリを適応的に学習するためのモデルとして,新しい2段階学習パラダイムFOSTERを提案する。
論文 参考訳(メタデータ) (2022-04-10T11:38:33Z) - Learning What Not to Segment: A New Perspective on Few-Shot Segmentation [63.910211095033596]
近年では、FSS ( few-shot segmentation) が広く開発されている。
本稿では,問題を緩和するための新鮮で直接的な知見を提案する。
提案されたアプローチのユニークな性質を踏まえて、より現実的で挑戦的な設定にまで拡張する。
論文 参考訳(メタデータ) (2022-03-15T03:08:27Z) - Self-Feature Regularization: Self-Feature Distillation Without Teacher
Models [0.0]
浅層層における機能学習を監督するために深層の特徴を用いるセルフフィーチャー正規化(sfr)を提案する。
まず,局所的な特徴にマッチする一般化l2損失と,チャネル次元においてより集中的に蒸留する多対一の手法を用いる。
論文 参考訳(メタデータ) (2021-03-12T15:29:00Z) - Knowledge Distillation Meets Self-Supervision [109.6400639148393]
知識蒸留では、教師ネットワークから「暗黒の知識」を抽出し、学生ネットワークの学習を指導する。
一見異なる自己超越的なタスクが、単純だが強力なソリューションとして機能することを示します。
これらの自己超越信号の類似性を補助的タスクとして活用することにより、隠された情報を教師から生徒に効果的に転送することができる。
論文 参考訳(メタデータ) (2020-06-12T12:18:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。