論文の概要: Mitigating Background Shift in Class-Incremental Semantic Segmentation
- arxiv url: http://arxiv.org/abs/2407.11859v1
- Date: Tue, 16 Jul 2024 15:44:37 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-17 14:03:36.685917
- Title: Mitigating Background Shift in Class-Incremental Semantic Segmentation
- Title(参考訳): クラスインクリメンタルセマンティックセグメンテーションにおける背景変化の緩和
- Authors: Gilhan Park, WonJun Moon, SuBeen Lee, Tae-Young Kim, Jae-Pil Heo,
- Abstract要約: クラスインクリメンタルセマンティック(CISS)は、古いクラスを忘れずに新しいクラスを学習することを目的としている。
CISSのためのバックグラウンドクラス分離フレームワークを提案する。
- 参考スコア(独自算出の注目度): 18.604420743751643
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Class-Incremental Semantic Segmentation(CISS) aims to learn new classes without forgetting the old ones, using only the labels of the new classes. To achieve this, two popular strategies are employed: 1) pseudo-labeling and knowledge distillation to preserve prior knowledge; and 2) background weight transfer, which leverages the broad coverage of background in learning new classes by transferring background weight to the new class classifier. However, the first strategy heavily relies on the old model in detecting old classes while undetected pixels are regarded as the background, thereby leading to the background shift towards the old classes(i.e., misclassification of old class as background). Additionally, in the case of the second approach, initializing the new class classifier with background knowledge triggers a similar background shift issue, but towards the new classes. To address these issues, we propose a background-class separation framework for CISS. To begin with, selective pseudo-labeling and adaptive feature distillation are to distill only trustworthy past knowledge. On the other hand, we encourage the separation between the background and new classes with a novel orthogonal objective along with label-guided output distillation. Our state-of-the-art results validate the effectiveness of these proposed methods.
- Abstract(参考訳): CISS(Class-Incremental Semantic Segmentation)は、新しいクラスのラベルのみを使用して、古いクラスを忘れずに新しいクラスを学ぶことを目的としている。
これを実現するために,2つの一般的な戦略が採用されている。
1) 先行知識を維持するための擬似ラベル及び知識蒸留
2) バックグラウンドウェイト変換は, バックグラウンドウェイトを新しいクラス分類器に転送することで, 新しいクラスを学習する際の背景範囲を広く活用する。
しかし、第1の戦略は、検出されていないピクセルが背景と見なされる間、古いクラスを検出する古いモデルに大きく依存しているため、古いクラスへの背景シフト(すなわち、古いクラスを背景として誤分類する)につながる。
さらに、第2のアプローチの場合、新しいクラス分類器をバックグラウンド知識で初期化すると、同様のバックグラウンドシフト問題を引き起こすが、新しいクラスに向けられる。
これらの課題に対処するため,我々はCISSのバックグラウンドクラス分離フレームワークを提案する。
まず、選択的な擬似ラベルと適応的な特徴蒸留は、信頼できる過去の知識のみを蒸留することである。
一方,我々はラベル誘導型出力蒸留とともに,新しい直交目的による背景クラスと新クラスの分離を奨励する。
その結果,提案手法の有効性が検証された。
関連論文リスト
- Early Preparation Pays Off: New Classifier Pre-tuning for Class Incremental Semantic Segmentation [13.62129805799111]
クラスインクリメンタルセマンティックセグメンテーションは、新しいタスクを学習しながら古い知識を保存することを目的としている。
それは破滅的な忘れ込みとバックグラウンドシフトの問題によって妨げられる。
そこで本研究では,正規学習プロセスの前に適用された新しい分類器プレチューニング(NeST)手法を提案する。
論文 参考訳(メタデータ) (2024-07-19T09:19:29Z) - PASS++: A Dual Bias Reduction Framework for Non-Exemplar Class-Incremental Learning [49.240408681098906]
クラスインクリメンタルラーニング(CIL)は,旧クラスの識別性を維持しつつ,新たなクラスを段階的に認識することを目的としている。
既存のCILメソッドの多くは、例えば、古いデータの一部を格納して再トレーニングする例がある。
本稿では、入力空間における自己教師付き変換(SST)と深い特徴空間におけるプロトタイプ拡張(protoAug)を利用する、単純で斬新な二重バイアス低減フレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-19T05:03:16Z) - Cs2K: Class-specific and Class-shared Knowledge Guidance for Incremental Semantic Segmentation [31.82132159867097]
増分的セグメンテーションは、古いクラスの知識を維持しながら、新しく遭遇したクラスをセグメンテーションする。
逐次的セマンティックセグメンテーションのためのクラス固有およびクラス共有知識(Cs2K)ガイダンスを提案する。
提案するCs2Kはセグメンテーション性能を著しく向上し,プラグアンドプレイである。
論文 参考訳(メタデータ) (2024-07-12T07:15:26Z) - Active Generalized Category Discovery [60.69060965936214]
GCD(Generalized Category Discovery)は、新しいクラスと古いクラスの未ラベルのサンプルをクラスタ化するための取り組みである。
我々は,能動的学習の精神を取り入れて,能動的一般化カテゴリー発見(AGCD)という新たな設定を提案する。
提案手法は, 汎用および微粒なデータセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2024-03-07T07:12:24Z) - Few-Shot Class-Incremental Learning via Training-Free Prototype
Calibration [67.69532794049445]
既存のメソッドでは、新しいクラスのサンプルをベースクラスに誤分類する傾向があり、新しいクラスのパフォーマンスが低下する。
我々は,新しいクラスの識別性を高めるため,簡易かつ効果的なトレーニング-フレア・カロブラシアン (TEEN) 戦略を提案する。
論文 参考訳(メタデータ) (2023-12-08T18:24:08Z) - DiffusePast: Diffusion-based Generative Replay for Class Incremental
Semantic Segmentation [73.54038780856554]
クラスインクリメンタルセマンティック(CISS)は、新たに追加されたクラスを漸進的に学習することで、従来のセグメンテーションタスクを拡張する。
これは、事前訓練されたGANから生成された古いクラスサンプルを再生するものである。
そこで我々はDiffusePastを提案する。DiffusePastは拡散型生成再生モジュールを特徴とする新しいフレームワークで、異なる命令でより信頼性の高いマスクで意味論的に正確な画像を生成する。
論文 参考訳(メタデータ) (2023-08-02T13:13:18Z) - Mining Unseen Classes via Regional Objectness: A Simple Baseline for
Incremental Segmentation [57.80416375466496]
画像分類タスクにおいて、破滅的な忘れを緩和するために、増分的あるいは連続的な学習が広く研究されている。
本稿では,マイニングのための地域目的性(MicroSeg)を通した未確認クラスという,シンプルで効果的な手法を提案する。
われわれのMicroSegは、強い客観性を持つ背景領域が、歴史的または将来の段階においてそれらの概念に属するという仮定に基づいている。
このように、特徴空間における古い概念を特徴付ける分布は、背景シフトによる破滅的な忘れを軽減し、よりよく認識される。
論文 参考訳(メタデータ) (2022-11-13T10:06:17Z) - Attribution-aware Weight Transfer: A Warm-Start Initialization for
Class-Incremental Semantic Segmentation [38.52441363934223]
クラスインクリメンタルセマンティックセグメンテーション(CISS)では、ディープラーニングアーキテクチャは破滅的な忘れ込みとセマンティックバックグラウンドシフトの致命的な問題に悩まされる。
本稿では、勾配に基づく属性を用いて、新しいクラスに最も関係のある重みを同定する手法を提案する。
この実験は,Pascal-VOC 2012 と ADE20K および Cityscapes の最新の CISS 手法と比較して,mIoU の大幅な改善を示した。
論文 参考訳(メタデータ) (2022-10-13T17:32:12Z) - Few-shot Open-set Recognition Using Background as Unknowns [58.04165813493666]
未使用のオープンセット認識は、見知らぬクラスの限られた訓練データしか持たない、目に見える画像と新しい画像の両方を分類することを目的としている。
提案手法は,複数のベースラインより優れるだけでなく,3つのベンチマークで新たな結果が得られた。
論文 参考訳(メタデータ) (2022-07-19T04:19:29Z) - Memory-Free Generative Replay For Class-Incremental Learning [32.39857105540859]
本研究では,メモリフリーな生成再生戦略を提案し,クラス特性の微粒化を抑える。
本手法は,従来のクラスを識別しやすくするために有効であることが証明された事前正規化に基づく手法によって最もよく補完される。
論文 参考訳(メタデータ) (2021-09-01T12:19:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。