論文の概要: C${}^2$Prompt: Class-aware Client Knowledge Interaction for Federated Continual Learning
- arxiv url: http://arxiv.org/abs/2509.19674v1
- Date: Wed, 24 Sep 2025 01:14:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-25 20:53:19.652572
- Title: C${}^2$Prompt: Class-aware Client Knowledge Interaction for Federated Continual Learning
- Title(参考訳): C${}^2$Prompt:Federated Continual Learningのためのクラス対応クライアント知識インタラクション
- Authors: Kunlun Xu, Yibo Feng, Jiangmeng Li, Yongsheng Qi, Jiahuan Zhou,
- Abstract要約: Federated Continuousal Learning (FCL)は、分散クライアント間で継続的に発生するタスクデータから学習するシナリオに取り組む。
最近のプロンプトベースFCL法はタスクワイド・プロンプト通信による高度な性能を示す。
本稿では,クラス単位の知識コヒーレンスを明確に向上させる新しいクラス対応クライアント知識インタラクション(C$2$Prompt)手法を提案する。
- 参考スコア(独自算出の注目度): 35.14509257126705
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated continual learning (FCL) tackles scenarios of learning from continuously emerging task data across distributed clients, where the key challenge lies in addressing both temporal forgetting over time and spatial forgetting simultaneously. Recently, prompt-based FCL methods have shown advanced performance through task-wise prompt communication.In this study, we underscore that the existing prompt-based FCL methods are prone to class-wise knowledge coherence between prompts across clients. The class-wise knowledge coherence includes two aspects: (1) intra-class distribution gap across clients, which degrades the learned semantics across prompts, (2) inter-prompt class-wise relevance, which highlights cross-class knowledge confusion. During prompt communication, insufficient class-wise coherence exacerbates knowledge conflicts among new prompts and induces interference with old prompts, intensifying both spatial and temporal forgetting. To address these issues, we propose a novel Class-aware Client Knowledge Interaction (C${}^2$Prompt) method that explicitly enhances class-wise knowledge coherence during prompt communication. Specifically, a local class distribution compensation mechanism (LCDC) is introduced to reduce intra-class distribution disparities across clients, thereby reinforcing intra-class knowledge consistency. Additionally, a class-aware prompt aggregation scheme (CPA) is designed to alleviate inter-class knowledge confusion by selectively strengthening class-relevant knowledge aggregation. Extensive experiments on multiple FCL benchmarks demonstrate that C${}^2$Prompt achieves state-of-the-art performance. Our source code is available at https://github.com/zhoujiahuan1991/NeurIPS2025-C2Prompt
- Abstract(参考訳): Federated Continual Learning (FCL)は、分散クライアント間で継続的に発生するタスクデータから学習するシナリオに取り組む。
近年,プロンプトベースのFCL手法は,タスクワイドなプロンプト通信による高度な性能を示しており,既存のプロンプトベースのFCL手法は,クライアント間でのプロンプト間のクラスワイドな知識コヒーレンスに起因していることを示す。
クラスワイド・ナレッジ・コヒーレンスには,(1) クライアント間のクラス内分布ギャップ,(2) プロンプト間で学習されたセマンティクスの劣化,(2) クラスワイド・リラクタンス,そして,クラス間の知識混乱を浮き彫りにする2つの側面がある。
迅速なコミュニケーションの間、クラスワイド・コヒーレンスは新しいプロンプト間の知識の衝突を悪化させ、古いプロンプトとの干渉を誘発し、空間的および時間的忘れを強くする。
これらの問題に対処するため,我々は,迅速なコミュニケーションにおいて,クラス知の一貫性を明確に向上させる新しいクラス認識クライアント知識インタラクション(C${}^2$Prompt)手法を提案する。
具体的には、クライアント間のクラス内分布格差を低減するために、ローカルクラス分布補償機構(LCDC)を導入し、クラス内知識の整合性を強化する。
さらに,クラス関連知識集約を選択的に強化することにより,クラス間知識混乱を軽減するために,クラス対応プロンプトアグリゲーションスキーム(CPA)を設計する。
複数のFCLベンチマークでの大規模な実験により、C${}^2$Promptが最先端の性能を達成することが示された。
ソースコードはhttps://github.com/zhoujiahuan 1991/NeurIPS2025-C2Promptで公開されています。
関連論文リスト
- CKAA: Cross-subspace Knowledge Alignment and Aggregation for Robust Continual Learning [80.18781219542016]
継続的学習(CL)は、シーケンシャルなタスクストリームから継続的に学習するAIモデルに権限を与える。
近年,パラメータ効率のよい微調整(PEFT)によるCL法が注目されている。
ミスリード型タスクIDに対するロバスト性を高めるために,クロスサブスペース・ナレッジアライメント・アグリゲーション(CKAA)を提案する。
論文 参考訳(メタデータ) (2025-07-13T03:11:35Z) - Information-Theoretic Complementary Prompts for Improved Continual Text Classification [34.30189210224955]
本稿では,連続テキスト分類のための情報理論補完プロンプト(InfoComp)を紹介する。
InfoComp は P(rivate)-Prompt と S(hared)-Prompt という二つの異なるプロンプト空間を明示的に学習する。
本枠組みでは,(1)P-Promptにおけるタスク固有の知識の蓄積を強化すること,(2)S-Promptにおけるタスク固有の知識の保持を強化すること,(2)フォワード知識伝達を改善すること,の2つの新しい損失関数を設計する。
論文 参考訳(メタデータ) (2025-05-27T09:22:14Z) - Componential Prompt-Knowledge Alignment for Domain Incremental Learning [26.641936519254784]
ドメインインクリメンタルラーニング(DIL)は、過去の知識を維持し、活用しながら、ドメインをまたいだ非定常データストリームから学習することを目的としている。
本稿では,コンポーネント認識型プロンプト知識アライメントを導入した新しいプロンプトベースのDIL手法である Componential Prompt-Knowledge Alignment (KA-Prompt) を提案する。
論文 参考訳(メタデータ) (2025-05-07T17:12:15Z) - CSTA: Spatial-Temporal Causal Adaptive Learning for Exemplar-Free Video Class-Incremental Learning [62.69917996026769]
クラスインクリメンタルな学習課題は、空間的外観と時間的行動の関与の両方を学習し、保存することを必要とする。
本稿では,各クラス固有のインクリメンタル情報要件を調整し,新しいクラスパターンを学習するためのアダプタを分離するフレームワークを提案する。
異なる種類の情報間のインクリメントと記憶の衝突を減らすために,因果補償機構を提案する。
論文 参考訳(メタデータ) (2025-01-13T11:34:55Z) - Forward-Backward Knowledge Distillation for Continual Clustering [14.234785944941672]
教師なし連続学習(Unsupervised Continual Learning, UCL)は、ニューラルネットワークが明確なラベル情報なしでタスクをシーケンシャルに学習できるようにすることに焦点を当てた、機械学習の急成長分野である。
破滅的フォーッティング(CF)は、特にラベル付きデータの情報がアクセスできないUCLにおいて、継続的な学習において重要な課題となる。
本研究では,Unsupervised Continual Clustering (UCC) の概念を導入し,各種タスクを対象としたクラスタリングにおける性能向上とメモリ効率の向上を図った。
論文 参考訳(メタデータ) (2024-05-29T16:13:54Z) - FedProK: Trustworthy Federated Class-Incremental Learning via Prototypical Feature Knowledge Transfer [22.713451501707908]
フェデレーション・クラス・インクリメンタル・ラーニング(FCIL)は、動的フェデレーション・ラーニング(FL)における新しいクラスを学ぶために、以前の知識を継続的に移行することに焦点を当てている。
本稿では,空間的時間的知識伝達を行うための新しい知識表現として,FedProK(Federated Prototypeal Feature Knowledge Transfer)を提案する。
論文 参考訳(メタデータ) (2024-05-04T14:57:09Z) - Hierarchical Prompts for Rehearsal-free Continual Learning [67.37739666753008]
継続的な学習は、過去のタスク知識の忘れを軽減しつつ、現在のタスク知識を統合する能力をモデルに装備する。
プロンプトチューニングによってインスパイアされたプロンプトベースのメソッドは、凍結したバックボーンを維持し、わずかに学習可能なプロンプトでトレーニングする。
本稿では,H-Prompts(H-Prompts)と呼ばれる連続学習のための新しいリハーサルフリーパラダイムを提案する。
論文 参考訳(メタデータ) (2024-01-21T16:59:44Z) - Federated Continual Learning via Knowledge Fusion: A Survey [33.74289759536269]
FCL(Federated Continual Learning)は、フェデレートされた学習環境と継続的な学習環境の両方において、モデル学習に対処する新たなパラダイムである。
FCLの主な目的は、異なるクライアントからの異種知識を融合し、新しいタスクを学習しながら、以前のタスクの知識を保持することである。
本研究は,フェデレーション学習と継続学習をまず重視し,その統合,すなわちFCL,特にFCLを知識融合を通じて議論する。
論文 参考訳(メタデータ) (2023-12-27T08:47:39Z) - POP: Prompt Of Prompts for Continual Learning [59.15888651733645]
継続的な学習(CL)は、破滅的な忘れをせずに新しい概念を学習する人間の能力を模倣することを目的としている。
POP学習を用いた基礎モデルでは,古典的なCL手法よりも優れた性能が得られることを示す。
論文 参考訳(メタデータ) (2023-06-14T02:09:26Z) - Federated Continual Learning with Weighted Inter-client Transfer [79.93004004545736]
我々は,新しい連合型連続学習フレームワークFederated Weighted Inter-client Transfer(FedWeIT)を提案する。
FedWeITは、ネットワークの重みをグローバルなフェデレーションパラメータとスパースなタスク固有のパラメータに分解し、各クライアントは他のクライアントから選択的な知識を受け取る。
我々はFedWeITを既存のフェデレーション学習法や継続学習法に対して検証し、我々のモデルは通信コストを大幅に削減してそれらを著しく上回っている。
論文 参考訳(メタデータ) (2020-03-06T13:33:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。