論文の概要: Decentralized Dynamic Cooperation of Personalized Models for Federated Continual Learning
- arxiv url: http://arxiv.org/abs/2509.23683v1
- Date: Sun, 28 Sep 2025 06:53:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:19.37403
- Title: Decentralized Dynamic Cooperation of Personalized Models for Federated Continual Learning
- Title(参考訳): 連立連続学習のためのパーソナライズされたモデルの分散動的協調
- Authors: Danni Yang, Zhikang Chen, Sen Cui, Mengyue Yang, Ding Li, Abudukelimu Wuerkaixi, Haoxuan Li, Jinke Ren, Mingming Gong,
- Abstract要約: フェデレーション型連続学習のための分散動的協調フレームワークを提案する。
顧客は、新しい知識の獲得と事前学習の維持のバランスをとるために、動的な協調学習連合を確立する。
また、協調的・動的平衡を達成するために、マージブロックアルゴリズムと動的協調的進化アルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 50.56947843548702
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated continual learning (FCL) has garnered increasing attention for its ability to support distributed computation in environments with evolving data distributions. However, the emergence of new tasks introduces both temporal and cross-client shifts, making catastrophic forgetting a critical challenge. Most existing works aggregate knowledge from clients into a global model, which may not enhance client performance since irrelevant knowledge could introduce interference, especially in heterogeneous scenarios. Additionally, directly applying decentralized approaches to FCL suffers from ineffective group formation caused by task changes. To address these challenges, we propose a decentralized dynamic cooperation framework for FCL, where clients establish dynamic cooperative learning coalitions to balance the acquisition of new knowledge and the retention of prior learning, thereby obtaining personalized models. To maximize model performance, each client engages in selective cooperation, dynamically allying with others who offer meaningful performance gains. This results in non-overlapping, variable coalitions at each stage of the task. Moreover, we use coalitional affinity game to simulate coalition relationships between clients. By assessing both client gradient coherence and model similarity, we quantify the client benefits derived from cooperation. We also propose a merge-blocking algorithm and a dynamic cooperative evolution algorithm to achieve cooperative and dynamic equilibrium. Comprehensive experiments demonstrate the superiority of our method compared to various baselines. Code is available at: https://github.com/ydn3229/DCFCL.
- Abstract(参考訳): フェデレートされた連続学習(FCL)は、データ分散を進化させる環境において分散計算をサポートする能力に注目が集まっている。
しかし、新しいタスクが出現すると、時間的および横断的なシフトがもたらされ、破滅的な課題を忘れてしまう。
既存の作業の多くは、クライアントからの知識をグローバルモデルに集約しています。
さらに、分散化アプローチをFCLに直接適用することは、タスク変更による非効率なグループ形成に悩まされる。
これらの課題に対処するため、我々は、クライアントが新しい知識の獲得と事前学習の維持のバランスをとるために動的協調学習連合を設立したFCLのための分散動的協調フレームワークを提案し、パーソナライズされたモデルを得る。
モデル性能を最大化するために、各クライアントは選択的協力を行い、意味のあるパフォーマンス向上を提供する他のクライアントと動的に連携する。
この結果、タスクの各段階において、重複しない可変的な連立が生まれる。
さらに、クライアント間の連立関係をシミュレートするために連立親和性ゲームを使用する。
クライアント勾配のコヒーレンスとモデル類似性の両方を評価することにより、協調から派生したクライアントの利点を定量化する。
また、協調的・動的平衡を達成するために、マージブロックアルゴリズムと動的協調的進化アルゴリズムを提案する。
総合的な実験により,本手法の各種ベースラインに対する優位性を実証した。
コードは、https://github.com/ydn3229/DCFCLで入手できる。
関連論文リスト
- Sociodynamics-inspired Adaptive Coalition and Client Selection in Federated Learning [39.58317527488534]
本稿では,時間的ソーシャルネットワーク上での意見ダイナミクスに着想を得た分散推論アルゴリズムであるショートネーム(Federated Coalition Variance Reduction with Boltzmann Exploration)を紹介する。
実験により、不均一なシナリオでは、我々のアルゴリズムは既存のFLアルゴリズムより優れており、より正確な結果とより高速な収束が得られることが示された。
論文 参考訳(メタデータ) (2025-06-03T14:04:31Z) - Dynamic Allocation Hypernetwork with Adaptive Model Recalibration for Federated Continual Learning [49.508844889242425]
適応型モデル再構成(FedDAH)を用いた動的アロケーション・ハイパーネットワーク(動的アロケーション・ハイパーネットワーク)の医用領域におけるサーバサイドFCLパターンを提案する。
FedDAHは、クライアント間で異なる動的タスクストリームの下での協調学習を容易にするように設計されている。
バイアス最適化のために,従来のモデルの変更候補を現在のサーバ更新に組み込むために,新しい適応モデル再校正(AMR)を導入する。
論文 参考訳(メタデータ) (2025-03-25T00:17:47Z) - Robust Asymmetric Heterogeneous Federated Learning with Corrupted Clients [60.22876915395139]
本稿では、異種・データ破損クライアントをモデルとした頑健な連立学習課題について検討する。
データ破損は、ランダムノイズ、圧縮アーティファクト、現実のデプロイメントにおける環境条件などの要因によって避けられない。
本稿では,これらの問題に対処する新しいロバスト非対称不均一なフェデレート学習フレームワークを提案する。
論文 参考訳(メタデータ) (2025-03-12T09:52:04Z) - Client-Centric Federated Adaptive Optimization [78.30827455292827]
Federated Learning(FL)は、クライアントが独自のデータをプライベートに保ちながら、協調的にモデルをトレーニングする分散学習パラダイムである。
本稿では,新しいフェデレーション最適化手法のクラスであるフェデレーション中心適応最適化を提案する。
論文 参考訳(メタデータ) (2025-01-17T04:00:50Z) - Asynchronous Federated Learning: A Scalable Approach for Decentralized Machine Learning [1.2604738912025477]
フェデレートラーニング(FL)は、分散機械学習の強力なパラダイムとして登場した。
従来のFLアプローチは、同期クライアントのアップデートに依存しているため、スケーラビリティと効率の制限に直面することが多い。
本稿では、クライアントが独立して非同期にグローバルモデルを更新できる非同期フェデレートラーニング(AFL)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-12-23T17:11:02Z) - FedCAda: Adaptive Client-Side Optimization for Accelerated and Stable Federated Learning [57.38427653043984]
フェデレートラーニング(FL)は、分散クライアント間の機械学習モデルの協調トレーニングにおいて、顕著なアプローチとして登場した。
我々は,この課題に対処するために設計された,革新的なクライアント適応アルゴリズムであるFedCAdaを紹介する。
我々はFedCAdaが適応性、収束性、安定性、全体的な性能の点で最先端の手法より優れていることを実証する。
論文 参考訳(メタデータ) (2024-05-20T06:12:33Z) - Balancing Similarity and Complementarity for Federated Learning [91.65503655796603]
フェデレートラーニング(FL)は、モバイルとIoTシステムにおいてますます重要になっている。
FLの重要な課題の1つは、非i.d.データのような統計的不均一性を管理することである。
FL協調における類似性と相補性のバランスをとる新しいフレームワークである texttFedSaC を導入する。
論文 参考訳(メタデータ) (2024-05-16T08:16:19Z) - How to Collaborate: Towards Maximizing the Generalization Performance in Cross-Silo Federated Learning [11.442808208742758]
フェデレートクラスタリング(FL)は、プライバシを保存する分散学習フレームワークとして、鮮明な注目を集めている。
本研究では、クライアントがFLデータの後、モデルオーナーとなるクロスサイロFLに焦点を当てる。
我々は、より多くのトレーニングデータを持つ他のクライアントと協調することで、クライアントのパフォーマンスを改善できると定式化します。
論文 参考訳(メタデータ) (2024-01-24T05:41:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。