論文の概要: SegACIL: Solving the Stability-Plasticity Dilemma in Class-Incremental Semantic Segmentation
- arxiv url: http://arxiv.org/abs/2412.10834v1
- Date: Sat, 14 Dec 2024 13:39:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-17 13:57:42.544661
- Title: SegACIL: Solving the Stability-Plasticity Dilemma in Class-Incremental Semantic Segmentation
- Title(参考訳): SegACIL: クラスインクリメンタルセマンティックセマンティックセグメンテーションにおける安定性-塑性ジレンマの解決
- Authors: Jiaxu Li, Songning Lai, Rui Li, Di Fang, Kejia Fan, Jianheng Tang, Yuhan Zhao, Rongchang Zhao, Dongzhan Zhou, Yutao Yue, Huiping Zhuang,
- Abstract要約: 線形閉形式解に基づくセマンティックセグメンテーションのための連続学習手法であるSegACILを提案する。
トレーニングに複数のエポックを必要とする従来の方法とは異なり、SegACILは1つのエポックしか必要としない。
Pascal VOC2012データセットの実験によると、SegACILはシーケンシャル、不整合、重なり合う設定において優れたパフォーマンスを達成する。
- 参考スコア(独自算出の注目度): 12.315674474349956
- License:
- Abstract: While deep learning has made remarkable progress in recent years, models continue to struggle with catastrophic forgetting when processing continuously incoming data. This issue is particularly critical in continual learning, where the balance between retaining prior knowledge and adapting to new information-known as the stability-plasticity dilemma-remains a significant challenge. In this paper, we propose SegACIL, a novel continual learning method for semantic segmentation based on a linear closed-form solution. Unlike traditional methods that require multiple epochs for training, SegACIL only requires a single epoch, significantly reducing computational costs. Furthermore, we provide a theoretical analysis demonstrating that SegACIL achieves performance on par with joint learning, effectively retaining knowledge from previous data which makes it to keep both stability and plasticity at the same time. Extensive experiments on the Pascal VOC2012 dataset show that SegACIL achieves superior performance in the sequential, disjoint, and overlap settings, offering a robust solution to the challenges of class-incremental semantic segmentation. Code is available at https://github.com/qwrawq/SegACIL.
- Abstract(参考訳): 近年、ディープラーニングは目覚ましい進歩を遂げているが、連続的にやってくるデータを処理する場合、モデルは破滅的な忘れに苦しむ。
この問題は、先行知識の保持と、安定性・可塑性ジレンマとして知られる新しい情報への適応のバランスが重要な課題である継続的学習において特に重要である。
本稿では,線形閉形式解に基づくセマンティックセグメンテーションの連続学習手法であるSegACILを提案する。
訓練に複数のエポックを必要とする従来の方法とは異なり、SegACILは1つのエポックしか必要とせず、計算コストを大幅に削減する。
さらに,SegACILがジョイントラーニングと同等の性能を達成し,従来のデータからの知識を効果的に保持し,安定性と可塑性を同時に維持できることを示す理論的解析を行った。
Pascal VOC2012データセットの大規模な実験は、SegACILがシーケンシャル、不整合、重なり合う設定において優れたパフォーマンスを達成し、クラスインクリメンタルセマンティックセグメンテーションの課題に対する堅牢な解決策を提供することを示している。
コードはhttps://github.com/qwrawq/SegACILで入手できる。
関連論文リスト
- Temporal-Difference Variational Continual Learning [89.32940051152782]
現実世界のアプリケーションにおける機械学習モデルの重要な機能は、新しいタスクを継続的に学習する能力である。
継続的な学習設定では、モデルは以前の知識を保持することで新しいタスクの学習のバランスをとるのに苦労することが多い。
複数の先行推定の正則化効果を統合する新たな学習目標を提案する。
論文 参考訳(メタデータ) (2024-10-10T10:58:41Z) - SLCA++: Unleash the Power of Sequential Fine-tuning for Continual Learning with Pre-training [68.7896349660824]
本稿では,Seq FTのレンズからの進行オーバーフィッティング問題を詳細に解析する。
過度に高速な表現学習と偏りのある分類層がこの問題を構成することを考慮し、先進的なSlow Learner with Alignment(S++)フレームワークを導入する。
提案手法は,バックボーンパラメータの学習率を選択的に減少させるスローラーナーと,ポストホック方式で不規則な分類層を整列させるアライメントを含む。
論文 参考訳(メタデータ) (2024-08-15T17:50:07Z) - Improving Data-aware and Parameter-aware Robustness for Continual Learning [3.480626767752489]
本報告では, オフラヤの非効率な取扱いから, この不整合が生じることを解析する。
本稿では,ロバスト連続学習(RCL)手法を提案する。
提案手法は, 堅牢性を効果的に維持し, 新たなSOTA(State-of-the-art)結果を得る。
論文 参考訳(メタデータ) (2024-05-27T11:21:26Z) - ECLIPSE: Efficient Continual Learning in Panoptic Segmentation with Visual Prompt Tuning [54.68180752416519]
パノプティカルセグメンテーション(英: Panoptic segmentation)は、コンピュータビジョンの最先端タスクである。
ECLIPSE と呼ばれる Visual Prompt Tuning をベースとした,新規で効率的なパノプティカルセグメンテーション手法を提案する。
我々のアプローチは、基本モデルのパラメータを凍結し、小さなプロンプト埋め込みだけを微調整することであり、破滅的な忘れ物と塑性の両方に対処する。
論文 参考訳(メタデータ) (2024-03-29T11:31:12Z) - Branch-Tuning: Balancing Stability and Plasticity for Continual Self-Supervised Learning [33.560003528712414]
自己教師付き学習(SSL)は、膨大な量のラベルのないデータから一般的な表現を導出するための効果的なパラダイムとして登場した。
これは、新しい情報に適応する際の安定性と可塑性のバランスを崩すことに挑戦する。
本稿では,SSLの安定性と可塑性のバランスを両立させる手法であるブランチチューニングを提案する。
論文 参考訳(メタデータ) (2024-03-27T05:38:48Z) - Towards Continual Learning Desiderata via HSIC-Bottleneck
Orthogonalization and Equiangular Embedding [55.107555305760954]
本稿では,レイヤワイドパラメータのオーバーライトや決定境界の歪みに起因する,概念的にシンプルで効果的な手法を提案する。
提案手法は,ゼロの指数バッファと1.02倍の差が絶対的に優れていても,競争精度が向上する。
論文 参考訳(メタデータ) (2024-01-17T09:01:29Z) - Towards Robust Continual Learning with Bayesian Adaptive Moment Regularization [51.34904967046097]
継続的な学習は、モデルが以前に学習した情報を忘れてしまう破滅的な忘れ込みの課題を克服しようとする。
本稿では,パラメータ成長の制約を緩和し,破滅的な忘れを減らし,新しい事前手法を提案する。
以上の結果から, BAdamは, 単頭クラスインクリメンタル実験に挑戦する先行手法に対して, 最先端の性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2023-09-15T17:10:51Z) - New metrics for analyzing continual learners [27.868967961503962]
継続学習(CL)は、標準的な学習アルゴリズムに課題をもたらす。
この安定性・塑性ジレンマはCLの中心であり、安定性と塑性を個別に適切に測定するために複数の測定基準が提案されている。
課題の難しさを考慮に入れた新しい指標を提案する。
論文 参考訳(メタデータ) (2023-09-01T13:53:33Z) - Mitigating Forgetting in Online Continual Learning via Contrasting
Semantically Distinct Augmentations [22.289830907729705]
オンライン連続学習(OCL)は、非定常データストリームからモデル学習を可能とし、新たな知識を継続的に獲得し、学習した知識を維持することを目的としている。
主な課題は、"破滅的な忘れる"問題、すなわち、新しい知識を学習しながら学習した知識を十分に記憶できないことにある。
論文 参考訳(メタデータ) (2022-11-10T05:29:43Z) - MaxMatch: Semi-Supervised Learning with Worst-Case Consistency [149.03760479533855]
半教師付き学習(SSL)のための最悪ケース整合正則化手法を提案する。
本稿では,ラベル付きトレーニングデータとラベル付きトレーニングデータとを別々に比較した経験的損失項からなるSSLの一般化について述べる。
この境界によって動機づけられたSSLの目的は、元のラベルのないサンプルと、その複数の拡張版との最大の矛盾を最小限に抑えるものである。
論文 参考訳(メタデータ) (2022-09-26T12:04:49Z) - SSUL: Semantic Segmentation with Unknown Label for Exemplar-based
Class-Incremental Learning [19.152041362805985]
クラスインクリメンタルセマンティックセグメンテーション(CISS)問題を考える。
本稿では,セマンティックセグメンテーションに適した複数の手法を慎重に組み合わせ,SSUL-M(Semantic with Unknown Label with Memory)と呼ばれる新しい手法を提案する。
提案手法は,最新の標準ベンチマークデータセットのベースラインよりも性能が大幅に向上していることを示す。
論文 参考訳(メタデータ) (2021-06-22T06:40:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。