論文の概要: Inherit with Distillation and Evolve with Contrast: Exploring Class
Incremental Semantic Segmentation Without Exemplar Memory
- arxiv url: http://arxiv.org/abs/2309.15413v1
- Date: Wed, 27 Sep 2023 05:38:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-28 16:48:04.221258
- Title: Inherit with Distillation and Evolve with Contrast: Exploring Class
Incremental Semantic Segmentation Without Exemplar Memory
- Title(参考訳): 蒸留とコントラストによる進化の継承--記憶のないクラスインクリメンタルセマンティックセマンティックセグメンテーションの探索
- Authors: Danpei Zhao, Bo Yuan, Zhenwei Shi
- Abstract要約: 本稿では,DADA(Dense Knowledge Distillation on all aspects)とARCL(Asymmetric Region-wise Contrastive Learning)モジュールからなるIDECを提案する。
本稿では,Pascal VOC 2012 ADE20K や ISPRS など,最先端のパフォーマンスによる複数の CISS タスクに対する提案手法の有効性を示す。
- 参考スコア(独自算出の注目度): 23.730424035141155
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As a front-burner problem in incremental learning, class incremental semantic
segmentation (CISS) is plagued by catastrophic forgetting and semantic drift.
Although recent methods have utilized knowledge distillation to transfer
knowledge from the old model, they are still unable to avoid pixel confusion,
which results in severe misclassification after incremental steps due to the
lack of annotations for past and future classes. Meanwhile data-replay-based
approaches suffer from storage burdens and privacy concerns. In this paper, we
propose to address CISS without exemplar memory and resolve catastrophic
forgetting as well as semantic drift synchronously. We present Inherit with
Distillation and Evolve with Contrast (IDEC), which consists of a Dense
Knowledge Distillation on all Aspects (DADA) manner and an Asymmetric
Region-wise Contrastive Learning (ARCL) module. Driven by the devised dynamic
class-specific pseudo-labelling strategy, DADA distils intermediate-layer
features and output-logits collaboratively with more emphasis on
semantic-invariant knowledge inheritance. ARCL implements region-wise
contrastive learning in the latent space to resolve semantic drift among known
classes, current classes, and unknown classes. We demonstrate the effectiveness
of our method on multiple CISS tasks by state-of-the-art performance, including
Pascal VOC 2012, ADE20K and ISPRS datasets. Our method also shows superior
anti-forgetting ability, particularly in multi-step CISS tasks.
- Abstract(参考訳): 漸進学習におけるフロントバーナー問題として、クラスインクリメンタルセマンティックセグメンテーション(CISS)は破滅的な忘れ込みとセマンティックドリフトに悩まされている。
近年の手法では, 従来のモデルから知識を伝達するために知識蒸留を利用したが, ピクセル混同を回避できないため, 過去のクラスや将来のクラスへのアノテーションの欠如により, 段階的に段階的に誤分類される。
一方、データ再生ベースのアプローチはストレージの負担とプライバシの懸念に苦しむ。
本稿では,CISSにメモリを使わずに対処し,破滅的な忘れを解消し,セマンティックドリフトを同期的に解決することを提案する。
Inherit with Distillation and Evolve with Contrast (IDEC)は,DADA(Dense Knowledge Distillation on all aspects)とARCL(Asymmetric Region-wise Contrastive Learning)モジュールから構成される。
動的クラス固有の擬似ラベル戦略によって、dadaは中間層の特徴と出力ログを協調的に区別し、意味不変の知識継承をより強調する。
ARCLは、既知のクラス、現在のクラス、未知のクラス間のセマンティックドリフトを解決するために、潜時空間における領域的コントラスト学習を実装している。
本稿では,Pascal VOC 2012 ADE20K や ISPRS など,最先端のパフォーマンスによる複数の CISS タスクに対する提案手法の有効性を示す。
また, マルチステップCISSタスクにおいて, 優れた偽造防止能力を示す。
関連論文リスト
- Class Gradient Projection For Continual Learning [99.105266615448]
破滅的な忘れは継続的学習(CL)における最も重要な課題の1つです。
タスクではなく個々のクラスから勾配部分空間を計算するクラスグラディエント・プロジェクション(CGP)を提案する。
論文 参考訳(メタデータ) (2023-11-25T02:45:56Z) - Enhancing Few-shot CLIP with Semantic-Aware Fine-Tuning [61.902254546858465]
Contrastive Language-Image Pre-Trainingに基づく手法は、数発の適応タスクで有望な性能を示した。
本稿では,タスク固有のセマンティクスに焦点を合わせるために,トレーニングプロセス中にアテンションプーリング層のパラメータを微調整することを提案する。
論文 参考訳(メタデータ) (2023-11-08T05:18:57Z) - Segue: Side-information Guided Generative Unlearnable Examples for
Facial Privacy Protection in Real World [64.4289385463226]
生成不可能な例としては、Segue: Side-information guided Generative unlearnable Exampleを提案する。
転送性を向上させるために,真のラベルや擬似ラベルなどの側面情報を導入する。
JPEG圧縮、敵対的トレーニング、およびいくつかの標準的なデータ拡張に抵抗することができる。
論文 参考訳(メタデータ) (2023-10-24T06:22:37Z) - Gradient-Semantic Compensation for Incremental Semantic Segmentation [43.00965727428193]
インクリメンタルセマンティックセマンティクスは、以前に学習したクラスのトレーニングデータにアクセスすることなく、新しいクラスのセマンティクスを継続的に学習することを目的としている。
グラディエント・セマンティック補償モデルを提案し, グラディエント・セマンティック・セマンティック・セマンティック・セマンティック・セマンティック・セマンティック・セマンティック・パースペクティブの両面からインクリメンタル・セマンティック・セマンティック・セマンティック・セマンティック・セマンティック・セマンティック・セマンティック・セマンティック・モデルを提案する。
論文 参考訳(メタデータ) (2023-07-20T12:32:25Z) - Resolving Task Confusion in Dynamic Expansion Architectures for Class
Incremental Learning [27.872317837451977]
タスク間の差別的・公平な特徴利用を促進するために,タスク関連インクリメンタルラーニング(TCIL)を提案する。
TCILは、古いタスクから学んだ知識を新しいタスクに伝達するために、多段階の知識蒸留を行う。
結果は,TILが常に最先端の精度を達成していることを示す。
論文 参考訳(メタデータ) (2022-12-29T12:26:44Z) - Learning to Imagine: Diversify Memory for Incremental Learning using
Unlabeled Data [69.30452751012568]
本研究では,多様な特徴を適応的に生成することで,経験を多様化する学習可能な特徴生成装置を開発する。
生成したサンプルを前例とセマンティックに整合させるために,意味的コントラスト学習を導入する。
提案手法は, 余分な推論コストを伴わず, 2つのベンチマークで最先端の手法より優れている。
論文 参考訳(メタデータ) (2022-04-19T15:15:18Z) - SATS: Self-Attention Transfer for Continual Semantic Segmentation [50.51525791240729]
連続的なセマンティックセグメンテーションは、連続的な分類学習と同じ破滅的な忘れの問題に悩まされる。
本研究では,各画像内の要素間の関係について,知識に関連する新しいタイプの情報伝達を提案する。
関係情報は、トランスフォーマースタイルのセグメンテーションモデルにおける自己アテンションマップから有効に得ることができる。
論文 参考訳(メタデータ) (2022-03-15T06:09:28Z) - A Contrastive Distillation Approach for Incremental Semantic
Segmentation in Aerial Images [15.75291664088815]
現在のディープニューラルアーキテクチャに関する大きな問題は、破滅的な忘れこととして知られている。
我々は、任意の入力を拡張バージョンと比較する、対照的な正則化を提案する。
私たちは、Potsdamデータセットにおけるソリューションの有効性を示し、各テストにおけるインクリメンタルベースラインよりも優れています。
論文 参考訳(メタデータ) (2021-12-07T16:44:45Z) - SSUL: Semantic Segmentation with Unknown Label for Exemplar-based
Class-Incremental Learning [19.152041362805985]
クラスインクリメンタルセマンティックセグメンテーション(CISS)問題を考える。
本稿では,セマンティックセグメンテーションに適した複数の手法を慎重に組み合わせ,SSUL-M(Semantic with Unknown Label with Memory)と呼ばれる新しい手法を提案する。
提案手法は,最新の標準ベンチマークデータセットのベースラインよりも性能が大幅に向上していることを示す。
論文 参考訳(メタデータ) (2021-06-22T06:40:26Z) - Anti-aliasing Semantic Reconstruction for Few-Shot Semantic Segmentation [66.85202434812942]
セグメンテーションを意味的再構成問題として再検討する。
基本クラスの特徴を,新しいクラス再構築のためのクラスレベルのセマンティック空間にまたがる一連の基底ベクトルに変換する。
提案手法はアンチエイリアス・セマンティック・リストラクション (ASR) と呼ばれ, 数発の学習問題に対して, 体系的かつ解釈可能な解法を提供する。
論文 参考訳(メタデータ) (2021-06-01T02:17:36Z) - Continual Semantic Segmentation via Repulsion-Attraction of Sparse and
Disentangled Latent Representations [18.655840060559168]
本稿では,セマンティックセグメンテーションにおけるクラス連続学習に着目した。
新しいカテゴリは時間とともに利用可能になり、以前のトレーニングデータは保持されない。
提案された連続学習スキームは、潜在空間を形作り、新しいクラスの認識を改善しながら忘れを減らす。
論文 参考訳(メタデータ) (2021-03-10T21:02:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。