論文の概要: SAILS: Segment Anything with Incrementally Learned Semantics for Task-Invariant and Training-Free Continual Learning
- arxiv url: http://arxiv.org/abs/2602.14767v1
- Date: Mon, 16 Feb 2026 14:14:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-17 16:22:50.453299
- Title: SAILS: Segment Anything with Incrementally Learned Semantics for Task-Invariant and Training-Free Continual Learning
- Title(参考訳): SAILS: タスク不変および学習自由学習のための漸進的に学習されたセグメンテーション
- Authors: Shishir Muralidhara, Didier Stricker, René Schuster,
- Abstract要約: 継続的な学習は、繰り返しリトレーニングの必要性、高い計算コスト、そして忘れることの永続的な課題によって制約され続けている。
SAILS -- Segment Anything with Incrementally Learned Semantics, a training-free framework for Class-Incremental Semantic (CISS)
以上の結果から,SAILSはインクリメンタルトレーニングを必要としないが,既存のトレーニングベースアプローチよりも優れていることが示唆された。
- 参考スコア(独自算出の注目度): 19.243037567371875
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Continual learning remains constrained by the need for repeated retraining, high computational costs, and the persistent challenge of forgetting. These factors significantly limit the applicability of continuous learning in real-world settings, as iterative model updates require significant computational resources and inherently exacerbate forgetting. We present SAILS -- Segment Anything with Incrementally Learned Semantics, a training-free framework for Class-Incremental Semantic Segmentation (CISS) that sidesteps these challenges entirely. SAILS leverages foundational models to decouple CISS into two stages: Zero-shot region extraction using Segment Anything Model (SAM), followed by semantic association through prototypes in a fixed feature space. SAILS incorporates selective intra-class clustering, resulting in multiple prototypes per class to better model intra-class variability. Our results demonstrate that, despite requiring no incremental training, SAILS typically surpasses the performance of existing training-based approaches on standard CISS datasets, particularly in long and challenging task sequences where forgetting tends to be most severe. By avoiding parameter updates, SAILS completely eliminates forgetting and maintains consistent, task-invariant performance. Furthermore, SAILS exhibits positive backward transfer, where the introduction of new classes can enhance performance on previous classes.
- Abstract(参考訳): 継続的な学習は、繰り返しリトレーニングの必要性、高い計算コスト、そして忘れることの永続的な課題によって制約され続けている。
これらの要因は、反復的なモデル更新が重要な計算資源を必要とし、本質的に忘れを悪化させるため、現実の環境での継続的学習の適用性を著しく制限する。
SAILS -- Segment Anything with Incrementally Learned Semantics – CISS(Class-Incremental Semantic Segmentation)のトレーニングフリーフレームワーク。
SAILSは基本的なモデルを活用してCISSを2段階に分離する。
SAILSには選択的クラス内クラスタリングが組み込まれており、結果としてクラス毎に複数のプロトタイプが作成され、クラス内変数をより良くモデル化できる。
我々の結果は、インクリメンタルトレーニングを必要としないにもかかわらず、SAILSは通常、標準CISSデータセットにおける既存のトレーニングベースのアプローチ、特に忘れることが最も深刻なタスクシーケンスにおいて、パフォーマンスを上回ります。
パラメータ更新を避けることで、SAILSは完全に忘れられ、一貫したタスク不変のパフォーマンスが維持される。
さらに、SAILSは、新しいクラスの導入によって、前のクラスのパフォーマンスが向上する、ポジティブな後方移動を示す。
関連論文リスト
- CASP: Few-Shot Class-Incremental Learning with CLS Token Attention Steering Prompts [15.650117316903925]
FSCIL(Few-shot class-incremental Learning)は、継続的な学習における中核的な課題である。
最近のプロンプトベースの手法は、事前訓練されたバックボーンとタスク固有のプロンプトを統合しており、顕著な進歩を遂げている。
我々は CLS Token Attention Steering Prompts (CASP) を提案する。
論文 参考訳(メタデータ) (2026-01-23T14:19:04Z) - Continual Learning for VLMs: A Survey and Taxonomy Beyond Forgetting [70.83781268763215]
視覚言語モデル(VLM)は、大規模事前学習を活用することで、多様なマルチモーダルタスクにおいて優れたパフォーマンスを実現している。
VLMは、クロスモーダル機能ドリフト、共有アーキテクチャによるパラメータ干渉、ゼロショット機能侵食など、ユニークな課題に直面している。
本調査は、生涯の視覚言語システムを開発する研究者にとって、包括的かつ診断的な基準となることを目的としている。
論文 参考訳(メタデータ) (2025-08-06T09:03:10Z) - CFSSeg: Closed-Form Solution for Class-Incremental Semantic Segmentation of 2D Images and 3D Point Clouds [9.765104818970277]
クラスインクリメンタルセマンティックセグメンテーション(CSS)では、事前知識を維持しながら、新たなセマンティックカテゴリを漸進的に学習する必要がある。
CFSSegは, クローズド・フォーム・ソリューションを応用した, 斬新な外見のない手法である。
これにより、反復的な勾配ベースの最適化と過去のデータの保存が不要になり、ステップ毎に新しいサンプルを1回だけ通過する必要がなくなる。
論文 参考訳(メタデータ) (2024-12-14T13:39:56Z) - Mamba-FSCIL: Dynamic Adaptation with Selective State Space Model for Few-Shot Class-Incremental Learning [115.79349923044663]
FSCIL(Few-shot class-incremental Learning)は、限られた例から新しいクラスを段階的に学習することを目的としている。
静的アーキテクチャは固定パラメータ空間に依存して、逐次到着するデータから学習し、現在のセッションに過度に適合する傾向がある。
本研究では,FSCILにおける選択状態空間モデル(SSM)の可能性について検討する。
論文 参考訳(メタデータ) (2024-07-08T17:09:39Z) - FeTT: Continual Class Incremental Learning via Feature Transformation Tuning [19.765229703131876]
継続的学習(CL)は、静的で囲われた環境から動的で複雑なシナリオまで、ディープモデルを拡張することを目的としている。
最近のCLモデルは、パラメータ効率の良い微調整戦略を持つ事前学習モデルの利用に徐々に移行している。
本稿では,すべてのタスクにまたがる非パラメトリック微調整バックボーン機能に対するFeTTモデルを提案する。
論文 参考訳(メタデータ) (2024-05-20T06:33:50Z) - OrCo: Towards Better Generalization via Orthogonality and Contrast for Few-Shot Class-Incremental Learning [57.43911113915546]
FSCIL(Few-Shot Class-Incremental Learning)は、問題空間を限られたデータで拡張するパラダイムを導入する。
FSCILの手法は、データが漸進的に到着するにつれて、破滅的な忘れ込みの課題に直面している。
表現空間における特徴の直交性と対照的な学習という2つの基本原理に基づいて構築されたOrCoフレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-27T13:30:48Z) - Enhanced Few-Shot Class-Incremental Learning via Ensemble Models [34.84881941101568]
クラス増分学習(class-incremental learning)は、新しいクラスを限られたトレーニングデータに継続的に適合させることを目的としている。
主な課題は、珍しい新しいトレーニングサンプルを過度に適合させ、古いクラスを忘れることである。
本稿では,データ拡張と協調して一般化を促進する新しいアンサンブルモデルフレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-14T06:07:07Z) - Continual Learners are Incremental Model Generalizers [70.34479702177988]
本稿では,継続学習モデル(CL)が事前学習者に与える影響を幅広く研究する。
その結果, 微調整性能が著しく低下することなく, 表現の伝達品質が徐々に向上することがわかった。
本稿では,下流タスクの解法において,リッチなタスクジェネリック表現を保存できる新しい微調整方式GLobal Attention Discretization(GLAD)を提案する。
論文 参考訳(メタデータ) (2023-06-21T05:26:28Z) - Meta-Learned Attribute Self-Gating for Continual Generalized Zero-Shot
Learning [82.07273754143547]
トレーニング中に見られないカテゴリにモデルを一般化するためのメタ連続ゼロショット学習(MCZSL)アプローチを提案する。
属性の自己決定とスケールしたクラス正規化をメタラーニングベースのトレーニングと組み合わせることで、最先端の成果を上回ることができるのです。
論文 参考訳(メタデータ) (2021-02-23T18:36:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。