論文の概要: Knowledge-Aware Evolution for Streaming Federated Continual Learning with Category Overlap and without Task Identifiers
- arxiv url: http://arxiv.org/abs/2601.19788v1
- Date: Tue, 27 Jan 2026 16:50:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-28 15:26:51.403462
- Title: Knowledge-Aware Evolution for Streaming Federated Continual Learning with Category Overlap and without Task Identifiers
- Title(参考訳): カテゴリーオーバーラップとタスク識別なしでの連立学習をストリーミングする知識認識進化
- Authors: Sixing Tan, Xianmin Liu,
- Abstract要約: Federated Continual Learning (FCL)は、非定常データにおける新たな知識獲得と事前知識保持のバランスをとるために、クライアント間コラボレーションを活用する。
既存のバッチベースのFCLメソッドでは、古いデータと新しいデータのカテゴリオーバーラップとタスク識別子の欠如を特徴とするストリーミングシナリオへの適応性が欠如している。
連立学習(FL)ラウンド毎に、クライアントは、非結合なサンプルでストリーミングデータを処理し、タスク識別子を使わずに、潜在的に重複するカテゴリを処理します。
複数のシナリオにわたる実験と後悔の分析は、FedKACEの有効性を示している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated Continual Learning (FCL) leverages inter-client collaboration to balance new knowledge acquisition and prior knowledge retention in non-stationary data. However, existing batch-based FCL methods lack adaptability to streaming scenarios featuring category overlap between old and new data and absent task identifiers, leading to indistinguishability of old and new knowledge, uncertain task assignments for samples, and knowledge confusion.To address this, we propose streaming federated continual learning setting: per federated learning (FL) round, clients process streaming data with disjoint samples and potentially overlapping categories without task identifiers, necessitating sustained inference capability for all prior categories after each FL round.Next, we introduce FedKACE: 1) an adaptive inference model switching mechanism that enables unidirectional switching from local model to global model to achieve a trade-off between personalization and generalization; 2) a adaptive gradient-balanced replay scheme that reconciles new knowledge learning and old knowledge retention under overlapping-class scenarios; 3) a kernel spectral boundary buffer maintenance that preserves high-information and high-boundary-influence samples to optimize cross-round knowledge retention. Experiments across multiple scenarios and regret analysis demonstrate the effectiveness of FedKACE.
- Abstract(参考訳): Federated Continual Learning (FCL)は、非定常データにおける新たな知識獲得と事前知識保持のバランスをとるために、クライアント間コラボレーションを活用する。
しかし、既存のバッチベースのFCL手法では、古いデータと新しいタスク識別子の重複を特徴とするストリーミングシナリオへの適応性が欠如しており、古い知識と新しい知識の不明瞭さ、サンプルのタスク割り当ての不確かさ、知識の混乱を招いている。これに対処するため、我々は、ストリーミング統合学習(FL)ラウンド毎に、クライアントが非結合なサンプルと、タスク識別子のない潜在的重複するカテゴリでストリーミングデータを処理し、各FLラウンド以降のすべてのカテゴリに対して持続的推論機能を必要とせず、FedKACEを紹介します。
1 局所モデルからグローバルモデルへの一方向切り替えにより、パーソナライゼーションと一般化のトレードオフを実現する適応推論モデル切替機構
2) 重複クラスシナリオの下で,新たな知識学習と旧知識保持を調整した適応的勾配バランスリプレイ方式
3)クロスラウンド知識保持を最適化するために,高情報および高結合性サンプルを保存するカーネルスペクトル境界バッファのメンテナンスを行う。
複数のシナリオにわたる実験と後悔の分析は、FedKACEの有効性を示している。
関連論文リスト
- Retrofit: Continual Learning with Bounded Forgetting for Security Applications [25.185616916987158]
本稿では,データ振り返りのない連続学習手法であるRETROFITを提案する。
干渉を軽減するために、独立部分空間にパラメータ変化を限定する低ランクかつスパースな更新を適用する。
時間的ドリフト下でのマルウェア検出では、CLベースラインよりも20.2%から38.6%の保持スコアが大幅に向上し、新しいデータに対するオラクルの上限を超える。
論文 参考訳(メタデータ) (2025-11-14T16:07:03Z) - Accurate Forgetting for Heterogeneous Federated Continual Learning [89.08735771893608]
提案手法は,フェデレーションネットワークにおける従来の知識を選択的に活用する新しい生成再生手法である。
我々は,従来の知識の信頼性を定量化するために,正規化フローモデルに基づく確率的フレームワークを用いる。
論文 参考訳(メタデータ) (2025-02-20T02:35:17Z) - CSTA: Spatial-Temporal Causal Adaptive Learning for Exemplar-Free Video Class-Incremental Learning [62.69917996026769]
クラスインクリメンタルな学習課題は、空間的外観と時間的行動の関与の両方を学習し、保存することを必要とする。
本稿では,各クラス固有のインクリメンタル情報要件を調整し,新しいクラスパターンを学習するためのアダプタを分離するフレームワークを提案する。
異なる種類の情報間のインクリメントと記憶の衝突を減らすために,因果補償機構を提案する。
論文 参考訳(メタデータ) (2025-01-13T11:34:55Z) - On the Convergence of Continual Federated Learning Using Incrementally Aggregated Gradients [7.226144684379189]
機械学習の聖杯は、連続的フェデレーション学習(CFL)によって、ストリーミングデータから学習しながら、AIシステムの効率、プライバシ、スケーラビリティを高めることである。
本稿では、エッジベースのメモリ勾配更新と、現在のデータに対する集約勾配からなる新しいリプレイメモリベースのフェデレーション戦略を提案する。
我々は,C-FLAGが,タスクとクラスインクリメンタル設定の両方において,精度や忘れなどの指標に関して,最先端のベースラインを上回っていることを実証的に示す。
論文 参考訳(メタデータ) (2024-11-12T17:36:20Z) - Beyond Prompt Learning: Continual Adapter for Efficient Rehearsal-Free Continual Learning [22.13331870720021]
C-ADA (Continuous Adapter) という,RFCL タスクに対する超高速学習手法を提案する。
C-ADAは、CALの特定の重みを柔軟に拡張し、各タスクの新たな知識を学び、古い重みを凍結して以前の知識を保存する。
提案手法は,現状のSOTA(State-of-the-art)法よりも優れ,性能とトレーニング速度を大幅に向上させる。
論文 参考訳(メタデータ) (2024-07-14T17:40:40Z) - Mind the Interference: Retaining Pre-trained Knowledge in Parameter Efficient Continual Learning of Vision-Language Models [79.28821338925947]
ドメインクラスのインクリメンタル学習は現実的だが、継続的な学習シナリオである。
これらの多様なタスクに対処するために、事前訓練されたビジョンランゲージモデル(VLM)を導入し、その強力な一般化性を実現する。
事前訓練されたVLMにエンコードされた知識は、新しいタスクに適応する際に妨げられ、固有のゼロショット能力を損なう。
既存の手法では、膨大なオーバーヘッドを必要とする余分なデータセットに知識蒸留でVLMをチューニングすることで、この問題に対処している。
我々は、事前学習した知識を保持できるDIKI(Distributed-Aware Interference-free Knowledge Integration)フレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-07T12:19:37Z) - Learning Prompt with Distribution-Based Feature Replay for Few-Shot Class-Incremental Learning [56.29097276129473]
分散型特徴再現(LP-DiF)を用いた学習プロンプト(Learning Prompt)という,シンプルで効果的なフレームワークを提案する。
新しいセッションでは,学習可能なプロンプトが古い知識を忘れないようにするため,擬似機能的リプレイ手法を提案する。
新しいセッションに進むと、古いクラスのディストリビューションと現在のセッションのトレーニングイメージを組み合わせて擬似フィーチャーをサンプリングして、プロンプトを最適化する。
論文 参考訳(メタデータ) (2024-01-03T07:59:17Z) - Feature Correlation-guided Knowledge Transfer for Federated
Self-supervised Learning [19.505644178449046]
特徴相関に基づくアグリゲーション(FedFoA)を用いたフェデレーション型自己教師型学習法を提案する。
私たちの洞察は、機能相関を利用して、特徴マッピングを整列し、ローカルトレーニングプロセス中にクライアント間でローカルモデルの更新を校正することにあります。
我々はFedFoAがモデルに依存しないトレーニングフレームワークであることを証明する。
論文 参考訳(メタデータ) (2022-11-14T13:59:50Z) - Exploring Semantic Attributes from A Foundation Model for Federated
Learning of Disjoint Label Spaces [46.59992662412557]
本研究では,特定の対象に敏感でない中レベルの意味的知識(属性など)の伝達を検討する。
我々はFZSL(Federated Zero-Shot Learning)パラダイムを定式化し、複数のローカルクライアントで中レベルのセマンティック知識を学習する。
モデル識別能力を向上させるために,外的知識からの意味的知識増強について検討する。
論文 参考訳(メタデータ) (2022-08-29T10:05:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。