論文の概要: Causally Sufficient and Necessary Feature Expansion for Class-Incremental Learning
- arxiv url: http://arxiv.org/abs/2603.09145v1
- Date: Tue, 10 Mar 2026 03:33:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-11 15:25:23.997716
- Title: Causally Sufficient and Necessary Feature Expansion for Class-Incremental Learning
- Title(参考訳): 授業増進学習における因果的十分かつ必要な特徴拡張
- Authors: Zhen Zhang, Jielei Chu, Tianrui Li,
- Abstract要約: クラス増分学習(CIL)の最近の拡張手法は、古い特徴を凍結することで破滅的な忘れを効果的に行う。
突発的な特徴相関が この衝突の主な原因で 2つの範囲に現れます
本稿では,CILの機能拡張を導くために,PNSに基づく正則化手法を提案する。
- 参考スコア(独自算出の注目度): 10.618608207545153
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Current expansion-based methods for Class Incremental Learning (CIL) effectively mitigate catastrophic forgetting by freezing old features. However, such task-specific features learned from the new task may collide with the old features. From a causal perspective, spurious feature correlations are the main cause of this collision, manifesting in two scopes: (i) guided by empirical risk minimization (ERM), intra-task spurious correlations cause task-specific features to rely on shortcut features. These non-robust features are vulnerable to interference, inevitably drifting into the feature space of other tasks; (ii) inter-task spurious correlations induce semantic confusion between visually similar classes across tasks. To address this, we propose a Probability of Necessity and Sufficiency (PNS)-based regularization method to guide feature expansion in CIL. Specifically, we first extend the definition of PNS to expansion-based CIL, termed CPNS, which quantifies both the causal completeness of intra-task representations and the separability of inter-task representations. We then introduce a dual-scope counterfactual generator based on twin networks to ensure the measurement of CPNS, which simultaneously generates: (i) intra-task counterfactual features to minimize intra-task PNS risk and ensure causal completeness of task-specific features, and (ii) inter-task interfering features to minimize inter-task PNS risk, ensuring the separability of inter-task representations. Theoretical analyses confirm its reliability. The regularization is a plug-and-play method for expansion-based CIL to mitigate feature collision. Extensive experiments demonstrate the effectiveness of the proposed method.
- Abstract(参考訳): クラスインクリメンタルラーニング(CIL)の現在の拡張ベース手法は、古い特徴を凍結することで破滅的な忘れを効果的に軽減する。
しかし、新しいタスクから学んだこのようなタスク固有の機能は、古い機能と衝突する可能性がある。
因果的見地からすると、この衝突の主な原因は刺激的な特徴相関である。
(i)経験的リスク最小化(ERM)によって導かれるタスク固有の特徴は、タスク固有の特徴をショートカット機能に依存する。
これらの非破壊的特徴は干渉に弱いため、必然的に他のタスクの特徴空間に流れ込む。
(II)タスク間で視覚的に類似したクラス間の意味的混同を引き起こすタスク間の突発的相関。
そこで本研究では,CILの機能拡張を導くために,PNS(Probability of Necessity and Sufficiency)に基づく正規化手法を提案する。
具体的には、まずPASの定義を拡張ベースCIL(CPNS)に拡張し、CPNSは、タスク内表現の因果完全性とタスク間表現の分離性の両方を定量化する。
次に、ツインネットワークに基づくデュアルスコープ対実発生器を導入し、CPNSの測定を確実にし、同時に生成する。
一 タスク内 PNS リスクを最小限に抑え、タスク固有の特徴の因果完全性を確保するためのタスク内反事実的特徴
(II) タスク間干渉機能により、タスク間PASリスクを最小限に抑え、タスク間表現の分離性を確保する。
理論分析は信頼性を裏付ける。
正規化は、機能衝突を軽減するために拡張ベースのCILのプラグアンドプレイ方式である。
大規模実験により提案手法の有効性が示された。
関連論文リスト
- Model Merging in the Essential Subspace [78.5390284258307]
モデルマージは、複数のタスク固有の細調整されたモデルを、追加のトレーニングなしで単一のマルチタスクモデルに統合することを目的としている。
広範囲の研究にもかかわらず、タスク干渉は依然として大きな障害であり、しばしば統合されたモデルの性能を損なう。
効率的なモデルマージのための堅牢なフレームワークであるESM(Essential Subspace Merging)を提案する。
論文 参考訳(メタデータ) (2026-02-23T00:33:38Z) - On the Paradoxical Interference between Instruction-Following and Task Solving [50.75960598434753]
次の命令は、大規模言語モデル(LLM)を、タスクの実行方法に関する明示的な制約を指定することで、人間の意図と整合させることを目的としている。
我々は,LLMのタスク解決能力にパラドックス的に干渉する命令に従うという,直感に反する現象を明らかにした。
本稿では,タスク解決に追従する命令の干渉を定量化する指標として,SUSTAINSCOREを提案する。
論文 参考訳(メタデータ) (2026-01-29T17:48:56Z) - FedGTEA: Federated Class-Incremental Learning with Gaussian Task Embedding and Alignment [4.031060983228927]
FedGTEA(Federated Gaussian Task Embedding and Alignment)と呼ばれる,FedGTEA(Federated Class Incremental Learning)のための新しいフレームワークを導入する。
FedGTEAは、タスク固有の知識を捉え、スケーラブルでコミュニケーション効率の良い方法で不確実性をモデル化するように設計されている。
論文 参考訳(メタデータ) (2025-10-14T19:02:41Z) - MEJO: MLLM-Engaged Surgical Triplet Recognition via Inter- and Intra-Task Joint Optimization [52.149337961205624]
手術用三重項認識のためのタスク間最適化とタスク内最適化を両立する枠組みを提案する。
タスク間最適化のために、タスク共有およびタスク固有コンポーネントに表現を分解する共有特徴分散学習スキーム(S$2$D)を導入する。
タスク内最適化競合に対して,正負の曖昧さを識別・再バランスするコーディネート・グラディエント・ラーニング(CGL)戦略を開発する。
論文 参考訳(メタデータ) (2025-09-16T09:48:52Z) - Low-rank Prompt Interaction for Continual Vision-Language Retrieval [47.323830129786145]
本稿では,マルチモーダル理解の問題に対処するために,低ランクプロンプトインタラクションを提案する。
トレーニングパラメータがレイヤー数やタスク数にスケールすることを考えると、低ランクな相互作用強化分解を提案する。
また、ロバストネストレーニングを確保するために、階層的な低ランクのコントラスト学習を採用しています。
論文 参考訳(メタデータ) (2025-01-24T10:00:47Z) - Task Indicating Transformer for Task-conditional Dense Predictions [16.92067246179703]
この課題に対処するために,タスク表示変換(TIT)と呼ばれる新しいタスク条件フレームワークを導入する。
本手法では,行列分解によるタスク指示行列を組み込んだMix Task Adapterモジュールをトランスフォーマーブロック内に設計する。
また,タスク表示ベクトルとゲーティング機構を利用するタスクゲートデコーダモジュールを提案する。
論文 参考訳(メタデータ) (2024-03-01T07:06:57Z) - A Unified Causal View of Instruction Tuning [76.1000380429553]
メタ構造因果モデル(meta-SCM)を開発し、異なるNLPタスクをデータの単一因果構造の下で統合する。
主なアイデアは、タスク要求因果関係を学習し、タスクの予測にのみそれらを使用することである。
論文 参考訳(メタデータ) (2024-02-09T07:12:56Z) - Mitigating Task Interference in Multi-Task Learning via Explicit Task
Routing with Non-Learnable Primitives [19.90788777476128]
マルチタスク学習(MTL)は、タスク間の共有情報を活用することで、複数のタスクを達成するための単一のモデルを学ぶことを目指している。
既存のMLLモデルはタスク間の負の干渉に悩まされていることが知られている。
本研究では,非学習可能なプリミティブと明示的なタスクルーティングの相乗的組み合わせによるタスク干渉を軽減するためのETR-NLPを提案する。
論文 参考訳(メタデータ) (2023-08-03T22:34:16Z) - Dense Network Expansion for Class Incremental Learning [61.00081795200547]
最先端のアプローチでは、ネットワーク拡張(NE)に基づいた動的アーキテクチャを使用し、タスクごとにタスクエキスパートを追加する。
精度とモデル複雑性のトレードオフを改善するために,新しい NE 手法である高密度ネットワーク拡張 (DNE) を提案する。
従来のSOTA法では、類似またはより小さなモデルスケールで、精度の点で4%のマージンで性能が向上した。
論文 参考訳(メタデータ) (2023-03-22T16:42:26Z) - Reparameterizing Convolutions for Incremental Multi-Task Learning
without Task Interference [75.95287293847697]
マルチタスクモデルを開発する際の2つの一般的な課題は、しばしば文献で見過ごされる。
まず、モデルを本質的に漸進的に可能にし、以前に学んだことを忘れずに新しいタスクから情報を継続的に取り入れる(インクリメンタルラーニング)。
第二に、タスク間の有害な相互作用を排除し、マルチタスク設定(タスク干渉)においてシングルタスクのパフォーマンスを著しく低下させることが示されている。
論文 参考訳(メタデータ) (2020-07-24T14:44:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。