論文の概要: Background Adaptation with Residual Modeling for Exemplar-Free Class-Incremental Semantic Segmentation
- arxiv url: http://arxiv.org/abs/2407.09838v1
- Date: Sat, 13 Jul 2024 10:24:28 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-16 20:37:36.853723
- Title: Background Adaptation with Residual Modeling for Exemplar-Free Class-Incremental Semantic Segmentation
- Title(参考訳): 既成のクラス・インクリメンタル・セマンティック・セマンティック・セマンティック・セマンティック・セマンティック・セマンティック・セマンティック・セマンティック・セマンティック・セマンティック・セマンティック・セマンティック・セマンティック・セマンティック・セマンティック・セマンティック・セマンティック・セマンティック・セマンティック・セ
- Authors: Anqi Zhang, Guangyu Gao,
- Abstract要約: 意味的セグメンテーションのためのインクリメンタルラーニングにおけるクラスインクリメンタルセマンティック(CISS)は、新しいカテゴリのセグメンテーションを目標とし、古いカテゴリの破滅的な忘れ込みを減らす。
共有背景分類器を用いた現在の手法は,これらの変化に追随し,背景予測の安定性が低下し,セグメンテーションの精度が低下する。
本稿では,各ステップの背景自体よりも背景残差を明示的にモデル化し,これらの残差を集約して背景の進化を表す新しい背景適応機構を提案する。
- 参考スコア(独自算出の注目度): 5.774736020571969
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Class Incremental Semantic Segmentation~(CISS), within Incremental Learning for semantic segmentation, targets segmenting new categories while reducing the catastrophic forgetting on the old categories.Besides, background shifting, where the background category changes constantly in each step, is a special challenge for CISS. Current methods with a shared background classifier struggle to keep up with these changes, leading to decreased stability in background predictions and reduced accuracy of segmentation. For this special challenge, we designed a novel background adaptation mechanism, which explicitly models the background residual rather than the background itself in each step, and aggregates these residuals to represent the evolving background. Therefore, the background adaptation mechanism ensures the stability of previous background classifiers, while enabling the model to concentrate on the easy-learned residuals from the additional channel, which enhances background discernment for better prediction of novel categories. To precisely optimize the background adaptation mechanism, we propose Pseudo Background Binary Cross-Entropy loss and Background Adaptation losses, which amplify the adaptation effect. Group Knowledge Distillation and Background Feature Distillation strategies are designed to prevent forgetting old categories. Our approach, evaluated across various incremental scenarios on Pascal VOC 2012 and ADE20K datasets, outperforms prior exemplar-free state-of-the-art methods with mIoU of 3.0% in VOC 10-1 and 2.0% in ADE 100-5, notably enhancing the accuracy of new classes while mitigating catastrophic forgetting. Code is available in https://andyzaq.github.io/barmsite/.
- Abstract(参考訳): 意味的セグメンテーションのためのインクリメンタルラーニングにおけるクラスインクリメンタルセグマンティックセグメンテーション~(CISS)は,従来のカテゴリにおける破滅的な忘れを減らしつつ,新たなカテゴリのセグメンテーションを目標としており,各ステップにおいて背景カテゴリが常に変化する背景シフトは,CISSにとって特別な課題である。
共有背景分類器を用いた現在の手法は,これらの変化に追随し,背景予測の安定性が低下し,セグメンテーションの精度が低下する。
この特別な課題のために、我々は、各ステップの背景自体よりも背景残差を明示的にモデル化する新しい背景適応機構を設計し、これらの残差を、進化する背景を表現するために集約した。
そのため、背景適応機構により、従来の背景分類器の安定性が保証され、新たなカテゴリーの予測精度を高めるため、新たなチャンネルからの学習が容易な残差に集中することが可能となる。
背景適応機構を正確に最適化するために,擬似背景二元交叉損失と背景適応損失を提案し,適応効果を増幅する。
グループ知識蒸留と背景特徴蒸留は,古いカテゴリーを忘れないように設計されている。
提案手法は, Pascal VOC 2012 および ADE20K データセットにおける様々な段階的なシナリオで評価され, 従来は mIoU が VOC 10-1 で 3.0%, ADE 100-5 が 2.0% であった手法よりも優れていた。
コードはhttps://andyzaq.github.io/barmsite/で入手できる。
関連論文リスト
- Bayesian Learning-driven Prototypical Contrastive Loss for Class-Incremental Learning [42.14439854721613]
本稿では,クラス増分学習シナリオに特化して,ベイズ学習駆動型コントラスト損失(BLCL)を持つプロトタイプネットワークを提案する。
提案手法は,ベイズ学習手法を用いて,クロスエントロピーとコントラスト損失関数のバランスを動的に適用する。
論文 参考訳(メタデータ) (2024-05-17T19:49:02Z) - Tendency-driven Mutual Exclusivity for Weakly Supervised Incremental Semantic Segmentation [56.1776710527814]
Weakly Incremental Learning for Semantic (WILSS)は、トレーニング済みのセグメンテーションモデルを利用して、コスト効率と手軽に利用できるイメージレベルのラベルを使用して、新しいクラスをセグメンテーションする。
WILSSを解く最も一般的な方法は、各新しいクラスのシード領域の生成であり、ピクセルレベルの監視の一形態として機能する。
本研究は, 種子領域の挙動を綿密に調整した, 相互排他性に関する革新的, 傾向的関係について提案する。
論文 参考訳(メタデータ) (2024-04-18T08:23:24Z) - Class-Imbalanced Semi-Supervised Learning for Large-Scale Point Cloud
Semantic Segmentation via Decoupling Optimization [64.36097398869774]
半教師付き学習(SSL)は大規模3Dシーン理解のための活発な研究課題である。
既存のSSLベースのメソッドは、クラス不均衡とポイントクラウドデータのロングテール分布による厳しいトレーニングバイアスに悩まされている。
本稿では,特徴表現学習と分類器を別の最適化方法で切り離してバイアス決定境界を効果的にシフトする,新しいデカップリング最適化フレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-13T04:16:40Z) - Gradient-Semantic Compensation for Incremental Semantic Segmentation [43.00965727428193]
インクリメンタルセマンティックセマンティクスは、以前に学習したクラスのトレーニングデータにアクセスすることなく、新しいクラスのセマンティクスを継続的に学習することを目的としている。
グラディエント・セマンティック補償モデルを提案し, グラディエント・セマンティック・セマンティック・セマンティック・セマンティック・セマンティック・セマンティック・セマンティック・パースペクティブの両面からインクリメンタル・セマンティック・セマンティック・セマンティック・セマンティック・セマンティック・セマンティック・セマンティック・セマンティック・モデルを提案する。
論文 参考訳(メタデータ) (2023-07-20T12:32:25Z) - Mining Unseen Classes via Regional Objectness: A Simple Baseline for
Incremental Segmentation [57.80416375466496]
画像分類タスクにおいて、破滅的な忘れを緩和するために、増分的あるいは連続的な学習が広く研究されている。
本稿では,マイニングのための地域目的性(MicroSeg)を通した未確認クラスという,シンプルで効果的な手法を提案する。
われわれのMicroSegは、強い客観性を持つ背景領域が、歴史的または将来の段階においてそれらの概念に属するという仮定に基づいている。
このように、特徴空間における古い概念を特徴付ける分布は、背景シフトによる破滅的な忘れを軽減し、よりよく認識される。
論文 参考訳(メタデータ) (2022-11-13T10:06:17Z) - Attribution-aware Weight Transfer: A Warm-Start Initialization for
Class-Incremental Semantic Segmentation [38.52441363934223]
クラスインクリメンタルセマンティックセグメンテーション(CISS)では、ディープラーニングアーキテクチャは破滅的な忘れ込みとセマンティックバックグラウンドシフトの致命的な問題に悩まされる。
本稿では、勾配に基づく属性を用いて、新しいクラスに最も関係のある重みを同定する手法を提案する。
この実験は,Pascal-VOC 2012 と ADE20K および Cityscapes の最新の CISS 手法と比較して,mIoU の大幅な改善を示した。
論文 参考訳(メタデータ) (2022-10-13T17:32:12Z) - FOSTER: Feature Boosting and Compression for Class-Incremental Learning [52.603520403933985]
ディープニューラルネットワークは、新しいカテゴリーを学ぶ際に破滅的な忘れ方に悩まされる。
本稿では,新たなカテゴリを適応的に学習するためのモデルとして,新しい2段階学習パラダイムFOSTERを提案する。
論文 参考訳(メタデータ) (2022-04-10T11:38:33Z) - Modeling the Background for Incremental and Weakly-Supervised Semantic
Segmentation [39.025848280224785]
セマンティックセグメンテーションのための新しい漸進的なクラス学習手法を提案する。
各トレーニングステップは、すべての可能なクラスのサブセットにのみアノテーションを提供するので、バックグラウンドクラスのピクセルはセマンティックシフトを示す。
本研究では,Pascal-VOC,ADE20K,Cityscapesのデータセットを広範囲に評価し,提案手法の有効性を実証する。
論文 参考訳(メタデータ) (2022-01-31T16:33:21Z) - Test-time Batch Statistics Calibration for Covariate Shift [66.7044675981449]
我々は,推論中に深層モデルを新しい環境に適応させることを提案する。
バッチ統計の校正に$alpha$-BNの一般的な定式化を提案する。
また、統合テスト時間適応フレームワークCoreを形成するための新しい損失関数も提示する。
論文 参考訳(メタデータ) (2021-10-06T08:45:03Z) - Tackling Catastrophic Forgetting and Background Shift in Continual
Semantic Segmentation [35.2461834832935]
セマンティックセグメンテーション(CSS)の継続的な学習は、新しいクラスを逐次追加することによって古いモデルを更新する、新たなトレンドである。
本稿では,長期・短距離空間関係を保存する多スケールプール蒸留方式であるLocal PODを提案する。
また,セグメンテーションに適した新しいリハーサル手法も導入する。
論文 参考訳(メタデータ) (2021-06-29T11:57:21Z) - Background Splitting: Finding Rare Classes in a Sea of Background [55.03789745276442]
我々は,少数の稀なカテゴリの画像分類のための,高精度な深層モデルの訓練という現実的な問題に焦点をあてる。
これらのシナリオでは、ほとんどの画像はデータセットの背景カテゴリに属します(データセットの95%は背景です)。
非バランスなデータセットをトレーニングするための標準的な微調整アプローチと最先端アプローチの両方が、この極端な不均衡の存在下で正確な深層モデルを生成していないことを実証する。
論文 参考訳(メタデータ) (2020-08-28T23:05:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。