論文の概要: Beyond Background Shift: Rethinking Instance Replay in Continual Semantic Segmentation
- arxiv url: http://arxiv.org/abs/2503.22136v1
- Date: Fri, 28 Mar 2025 04:22:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-31 15:29:43.465172
- Title: Beyond Background Shift: Rethinking Instance Replay in Continual Semantic Segmentation
- Title(参考訳): バックグラウンドシフトを超えて - 連続的なセマンティックセグメンテーションにおけるインスタンスリプレイの再考
- Authors: Hongmei Yin, Tingliang Feng, Fan Lyu, Fanhua Shang, Hongying Liu, Wei Feng, Liang Wan,
- Abstract要約: 連続的セマンティックセグメンテーション(CSS)ネットワークは、以前に学習したセマンティックセグメンテーションの知識を消去することなく、新しいクラスを継続的に学習する必要がある。
部分的なカテゴリアノテーションを持つ保存された新しいイメージは、注釈のないカテゴリと背景を混乱させる。
本稿では,背景の混乱を解消しつつ,古いクラスの知識を同時に保存する新しい拡張インスタンス再生(EIR)手法を提案する。
- 参考スコア(独自算出の注目度): 27.952611012675543
- License:
- Abstract: In this work, we focus on continual semantic segmentation (CSS), where segmentation networks are required to continuously learn new classes without erasing knowledge of previously learned ones. Although storing images of old classes and directly incorporating them into the training of new models has proven effective in mitigating catastrophic forgetting in classification tasks, this strategy presents notable limitations in CSS. Specifically, the stored and new images with partial category annotations leads to confusion between unannotated categories and the background, complicating model fitting. To tackle this issue, this paper proposes a novel Enhanced Instance Replay (EIR) method, which not only preserves knowledge of old classes while simultaneously eliminating background confusion by instance storage of old classes, but also mitigates background shifts in the new images by integrating stored instances with new images. By effectively resolving background shifts in both stored and new images, EIR alleviates catastrophic forgetting in the CSS task, thereby enhancing the model's capacity for CSS. Experimental results validate the efficacy of our approach, which significantly outperforms state-of-the-art CSS methods.
- Abstract(参考訳): 本研究では,従来学習されていたセグメンテーションの知識を消し去ることなく,新しいクラスを継続的に学習するためにセグメンテーションネットワークを必要とする,連続的セグメンテーション(CSS)に焦点を当てる。
古いクラスのイメージを保存し、それらを新しいモデルのトレーニングに直接組み込むことは、分類タスクにおける破滅的な忘れの軽減に有効であることが証明されているが、この戦略はCSSで顕著な制限を示している。
具体的には、部分的なカテゴリアノテーションを持つ保存画像と新しい画像は、注釈のないカテゴリと背景との混同を招き、モデルの適合を複雑にする。
そこで本研究では,古いクラスのインスタンス記憶による背景の混乱を解消しつつ,古いクラスの知識を同時に保存するだけでなく,保存されたインスタンスと新しい画像を統合することで,新しい画像の背景のずれを緩和する新しい拡張インスタンス再生(EIR)手法を提案する。
保存された画像と新しい画像の両方の背景シフトを効果的に解決することにより、EIRはCSSタスクの破滅的な忘れを軽減し、CSSに対するモデルの能力を高める。
提案手法の有効性を実験的に検証し, 現状CSS法を著しく上回る結果を得た。
関連論文リスト
- Learning from the Web: Language Drives Weakly-Supervised Incremental Learning for Semantic Segmentation [33.955384040748946]
我々は、新しいクラスを学習するためにも、広く利用可能なWebイメージを考えることができると論じている。
我々の知る限り、これは新しい概念の学習と既に学んだ概念の保存の両方のために、Webイメージにのみ依存する最初の作品である。
論文 参考訳(メタデータ) (2024-07-18T10:14:49Z) - DiffusePast: Diffusion-based Generative Replay for Class Incremental
Semantic Segmentation [73.54038780856554]
クラスインクリメンタルセマンティック(CISS)は、新たに追加されたクラスを漸進的に学習することで、従来のセグメンテーションタスクを拡張する。
これは、事前訓練されたGANから生成された古いクラスサンプルを再生するものである。
そこで我々はDiffusePastを提案する。DiffusePastは拡散型生成再生モジュールを特徴とする新しいフレームワークで、異なる命令でより信頼性の高いマスクで意味論的に正確な画像を生成する。
論文 参考訳(メタデータ) (2023-08-02T13:13:18Z) - Mining Unseen Classes via Regional Objectness: A Simple Baseline for
Incremental Segmentation [57.80416375466496]
画像分類タスクにおいて、破滅的な忘れを緩和するために、増分的あるいは連続的な学習が広く研究されている。
本稿では,マイニングのための地域目的性(MicroSeg)を通した未確認クラスという,シンプルで効果的な手法を提案する。
われわれのMicroSegは、強い客観性を持つ背景領域が、歴史的または将来の段階においてそれらの概念に属するという仮定に基づいている。
このように、特徴空間における古い概念を特徴付ける分布は、背景シフトによる破滅的な忘れを軽減し、よりよく認識される。
論文 参考訳(メタデータ) (2022-11-13T10:06:17Z) - RBC: Rectifying the Biased Context in Continual Semantic Segmentation [10.935529209436929]
本稿では,コンテキスト修正された画像-duplet学習方式とバイアステキスト-非感性一貫性損失を用いたバイアスコンテキスト修正CSSフレームワークを提案する。
当社のアプローチは,既存のCSSシナリオにおいて,最先端のメソッドよりもはるかに優れています。
論文 参考訳(メタデータ) (2022-03-16T05:39:32Z) - Rectifying the Shortcut Learning of Background: Shared Object
Concentration for Few-Shot Image Recognition [101.59989523028264]
Few-Shot画像分類は、大規模なデータセットから学んだ事前学習された知識を利用して、一連の下流分類タスクに取り組むことを目的としている。
本研究では,Few-Shot LearningフレームワークであるCOSOCを提案する。
論文 参考訳(メタデータ) (2021-07-16T07:46:41Z) - Tackling Catastrophic Forgetting and Background Shift in Continual
Semantic Segmentation [35.2461834832935]
セマンティックセグメンテーション(CSS)の継続的な学習は、新しいクラスを逐次追加することによって古いモデルを更新する、新たなトレンドである。
本稿では,長期・短距離空間関係を保存する多スケールプール蒸留方式であるLocal PODを提案する。
また,セグメンテーションに適した新しいリハーサル手法も導入する。
論文 参考訳(メタデータ) (2021-06-29T11:57:21Z) - Half-Real Half-Fake Distillation for Class-Incremental Semantic
Segmentation [84.1985497426083]
畳み込みニューラルネットワークは漸進的な学習に不適である。
新しいクラスは利用できるが、初期トレーニングデータは保持されない。
訓練されたセグメンテーションネットワークを「反転」して、ランダムノイズから始まる入力画像の合成を試みる。
論文 参考訳(メタデータ) (2021-04-02T03:47:16Z) - PLOP: Learning without Forgetting for Continual Semantic Segmentation [44.49799311137856]
セマンティックセグメンテーション(CSS)の継続的な学習は、新しいクラスを逐次追加することによって古いモデルを更新する、新たなトレンドである。
本稿では,長大かつ短大な空間関係を特徴レベルで保存する多スケールプール蒸留方式であるLocal PODを提案する。
また,従来のモデルが予測した背景w.r.t.クラスのエントロピーに基づく擬似ラベリングを設計し,背景シフトに対処し,旧クラスの破滅的忘れを避ける。
論文 参考訳(メタデータ) (2020-11-23T13:35:03Z) - Distilling Localization for Self-Supervised Representation Learning [82.79808902674282]
コントラスト学習は教師なし表現学習に革命をもたらした。
現在のコントラストモデルでは、前景オブジェクトのローカライズには効果がない。
本稿では,背景変化を学習するためのデータ駆動型手法を提案する。
論文 参考訳(メタデータ) (2020-04-14T16:29:42Z) - Memory-Efficient Incremental Learning Through Feature Adaptation [71.1449769528535]
本稿では,以前学習したクラスから,画像の特徴記述子を保存するインクリメンタルラーニングのアプローチを提案する。
画像のより低次元の機能埋め込みを維持することで、メモリフットプリントが大幅に削減される。
実験の結果,インクリメンタルラーニングベンチマークにおいて,最先端の分類精度が得られた。
論文 参考訳(メタデータ) (2020-04-01T21:16:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。