論文の概要: Adaptive Federated Learning via Dynamical System Model
- arxiv url: http://arxiv.org/abs/2510.04203v1
- Date: Sun, 05 Oct 2025 13:36:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-07 16:52:59.514602
- Title: Adaptive Federated Learning via Dynamical System Model
- Title(参考訳): 動的システムモデルによる適応的フェデレーション学習
- Authors: Aayushya Agarwal, Larry Pileggi, Gauri Joshi,
- Abstract要約: 本稿では,クライアントと中央エージェントの両方が局所学習率と運動量パラメータを適応的に選択するエンドツーエンド適応学習手法を提案する。
我々のフレームワークは、異種連合学習に優れた収束をもたらすことが示されている。
- 参考スコア(独自算出の注目度): 14.213784719311752
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Hyperparameter selection is critical for stable and efficient convergence of heterogeneous federated learning, where clients differ in computational capabilities, and data distributions are non-IID. Tuning hyperparameters is a manual and computationally expensive process as the hyperparameter space grows combinatorially with the number of clients. To address this, we introduce an end-to-end adaptive federated learning method in which both clients and central agents adaptively select their local learning rates and momentum parameters. Our approach models federated learning as a dynamical system, allowing us to draw on principles from numerical simulation and physical design. Through this perspective, selecting momentum parameters equates to critically damping the system for fast, stable convergence, while learning rates for clients and central servers are adaptively selected to satisfy accuracy properties from numerical simulation. The result is an adaptive, momentum-based federated learning algorithm in which the learning rates for clients and servers are dynamically adjusted and controlled by a single, global hyperparameter. By designing a fully integrated solution for both adaptive client updates and central agent aggregation, our method is capable of handling key challenges of heterogeneous federated learning, including objective inconsistency and client drift. Importantly, our approach achieves fast convergence while being insensitive to the choice of the global hyperparameter, making it well-suited for rapid prototyping and scalable deployment. Compared to state-of-the-art adaptive methods, our framework is shown to deliver superior convergence for heterogeneous federated learning while eliminating the need for hyperparameter tuning both client and server updates.
- Abstract(参考訳): ハイパーパラメータの選択は、クライアントが計算能力が異なる不均一なフェデレーション学習の安定かつ効率的な収束に不可欠であり、データ分布は非IIDである。
ハイパーパラメータの調整は手動で計算コストがかかるプロセスであり、ハイパーパラメータ空間はクライアント数と組み合わせて増大する。
そこで本研究では,クライアントと中央エージェントの両方が局所学習率と運動量パラメータを適応的に選択する,エンドツーエンド適応型フェデレーション学習手法を提案する。
提案手法は,動的システムとしてのフェデレーション学習をモデル化し,数値シミュレーションと物理設計の原理を導出する。
この観点から、モーメントパラメータの選択は、高速で安定した収束のためにシステムを批判的に減衰させるのに等しく、一方、クライアントと中央サーバの学習速度は、数値シミュレーションから精度特性を満たすために適応的に選択される。
その結果、クライアントとサーバの学習率が動的に調整され、1つのグローバルハイパーパラメータによって制御される適応的、運動量に基づくフェデレート学習アルゴリズムが得られた。
適応的クライアント更新と中央エージェント集約の両方に完全に統合されたソリューションを設計することにより、客観的不整合やクライアントドリフトを含む不均一なフェデレーション学習の重要な課題を処理できる。
重要なことは、我々の手法は、グローバルなハイパーパラメータの選択に敏感でありながら、高速な収束を実現し、高速なプロトタイピングとスケーラブルなデプロイメントに適しています。
我々のフレームワークは、最先端の適応手法と比較して、クライアントとサーバの両方の更新をハイパーパラメータチューニングする必要性を排除しつつ、異質なフェデレーション学習に優れた収束をもたらすことが示されている。
関連論文リスト
- FedDuA: Doubly Adaptive Federated Learning [2.6108066206600555]
フェデレーション学習(Federated Learning)は、クライアントが生データを共有せずにグローバルモデルを共同でトレーニングする分散学習フレームワークである。
我々は、ミラー降下レンズによる中央サーバ最適化手順を定式化し、FedDuAと呼ばれる新しいフレームワークを提案する。
提案した2次適応型ステップサイズルールは最小限最適であり,凸対象に対する収束解析を提供する。
論文 参考訳(メタデータ) (2025-05-16T11:15:27Z) - Dynamic Allocation Hypernetwork with Adaptive Model Recalibration for Federated Continual Learning [49.508844889242425]
適応型モデル再構成(FedDAH)を用いた動的アロケーション・ハイパーネットワーク(動的アロケーション・ハイパーネットワーク)の医用領域におけるサーバサイドFCLパターンを提案する。
FedDAHは、クライアント間で異なる動的タスクストリームの下での協調学習を容易にするように設計されている。
バイアス最適化のために,従来のモデルの変更候補を現在のサーバ更新に組み込むために,新しい適応モデル再校正(AMR)を導入する。
論文 参考訳(メタデータ) (2025-03-25T00:17:47Z) - Client-Centric Federated Adaptive Optimization [78.30827455292827]
Federated Learning(FL)は、クライアントが独自のデータをプライベートに保ちながら、協調的にモデルをトレーニングする分散学習パラダイムである。
本稿では,新しいフェデレーション最適化手法のクラスであるフェデレーション中心適応最適化を提案する。
論文 参考訳(メタデータ) (2025-01-17T04:00:50Z) - Towards Hyper-parameter-free Federated Learning [1.3682156035049038]
グローバルモデル更新の自動スケーリングのためのアルゴリズムを導入する。
第1のアルゴリズムでは、クライアントにおける降下検知ステップサイズ体制が、サーバの目的に対して降下を保証することが保証される。
第2のアルゴリズムは、サンプリングされたクライアントの目的値の平均値が、スケーリング係数を計算するのに必要な値サーバの実用的で効果的な代用であることを示している。
論文 参考訳(メタデータ) (2024-08-30T09:35:36Z) - FedCAda: Adaptive Client-Side Optimization for Accelerated and Stable Federated Learning [57.38427653043984]
フェデレートラーニング(FL)は、分散クライアント間の機械学習モデルの協調トレーニングにおいて、顕著なアプローチとして登場した。
我々は,この課題に対処するために設計された,革新的なクライアント適応アルゴリズムであるFedCAdaを紹介する。
我々はFedCAdaが適応性、収束性、安定性、全体的な性能の点で最先端の手法より優れていることを実証する。
論文 参考訳(メタデータ) (2024-05-20T06:12:33Z) - FedLALR: Client-Specific Adaptive Learning Rates Achieve Linear Speedup
for Non-IID Data [54.81695390763957]
フェデレートラーニング(Federated Learning)は、分散機械学習の手法である。
我々は,AMSGradの異種局所変種であるFedLALRを提案し,各クライアントが学習率を調整する。
クライアントが指定した自動調整型学習率スケジューリングが,クライアント数に対して収束し,線形高速化を実現することを示す。
論文 参考訳(メタデータ) (2023-09-18T12:35:05Z) - Adaptive Federated Learning via New Entropy Approach [14.595709494370372]
Federated Learning (FL) は、分散機械学習フレームワークとして注目されている。
本稿では,不均一クライアント間のパラメータ偏差を軽減するために,entropy理論(FedEnt)に基づく適応型FEDerated Learningアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-03-27T07:57:04Z) - Straggler-Resilient Personalized Federated Learning [55.54344312542944]
フェデレーション学習は、プライバシと通信の制限を尊重しながら、クライアントの大規模なネットワークに分散されたサンプルからのトレーニングモデルを可能にする。
これら2つのハードルを同時に処理する理論的なスピードアップを保証する新しいアルゴリズム手法を開発した。
提案手法は,すべてのクライアントのデータを用いてグローバルな共通表現を見つけ,各クライアントに対してパーソナライズされたソリューションにつながるパラメータの集合を学習するために,表現学習理論からのアイデアに依存している。
論文 参考訳(メタデータ) (2022-06-05T01:14:46Z) - Straggler-Resilient Federated Learning: Leveraging the Interplay Between
Statistical Accuracy and System Heterogeneity [57.275753974812666]
フェデレーション学習は、データをローカルに保持しながら、クライアントのネットワークに分散したデータサンプルから学習する。
本稿では,学習手順を高速化するために,クライアントデータの統計的特徴を取り入れてクライアントを適応的に選択する,ストラグラー・レジリエントなフェデレーション学習手法を提案する。
論文 参考訳(メタデータ) (2020-12-28T19:21:14Z) - Robust Federated Learning Through Representation Matching and Adaptive
Hyper-parameters [5.319361976450981]
フェデレーション学習(Federated Learning)は、複数のクライアントに属するデータに対して単一のモデルをトレーニングする、分散されたプライバシ対応の学習シナリオである。
現在のフェデレーション学習手法は、異種クライアント側データ分散に苦慮している。
本稿では,局所モデルのばらつきを低減する表現マッチング手法を提案する。
論文 参考訳(メタデータ) (2019-12-30T20:19:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。