論文の概要: Multiplayer Federated Learning: Reaching Equilibrium with Less Communication
- arxiv url: http://arxiv.org/abs/2501.08263v1
- Date: Tue, 14 Jan 2025 17:23:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-15 13:26:18.720996
- Title: Multiplayer Federated Learning: Reaching Equilibrium with Less Communication
- Title(参考訳): マルチプレイヤーフェデレーション学習 : コミュニケーションの少ない平衡の獲得
- Authors: TaeHo Yoon, Sayantan Choudhury, Nicolas Loizou,
- Abstract要約: MpFL(Multiplayer Federated Learning)は、FL環境のクライアントをゲーム理論の文脈でプレイヤーとしてモデル化する新しいフレームワークである。
MpFL内ではPEARL-SGD(Per-Player Local Gradient Descent)を提案する。
理論的にPEARL-SGDを解析し、非局所的な通信に比べて通信の少ない平衡付近に到達することを証明した。
- 参考スコア(独自算出の注目度): 11.761699431612229
- License:
- Abstract: Traditional Federated Learning (FL) approaches assume collaborative clients with aligned objectives working towards a shared global model. However, in many real-world scenarios, clients act as rational players with individual objectives and strategic behaviors, a concept that existing FL frameworks are not equipped to adequately address. To bridge this gap, we introduce Multiplayer Federated Learning (MpFL), a novel framework that models the clients in the FL environment as players in a game-theoretic context, aiming to reach an equilibrium. In this scenario, each player tries to optimize their own utility function, which may not align with the collective goal. Within MpFL, we propose Per-Player Local Stochastic Gradient Descent (PEARL-SGD), an algorithm in which each player/client performs local updates independently and periodically communicates with other players. We theoretically analyze PEARL-SGD and prove that it reaches a neighborhood of equilibrium with less communication in the stochastic setup compared to its non-local counterpart. Finally, we verify our theoretical findings through numerical experiments.
- Abstract(参考訳): 従来のフェデレートラーニング(FL)アプローチは、共通グローバルモデルに向けた目的に沿った協調的なクライアントを前提としています。
しかし、多くの現実世界のシナリオでは、クライアントは個々の目的と戦略的行動を持った合理的なプレイヤーとして振る舞う。
このギャップを埋めるために,ゲーム理論の文脈において,FL環境のクライアントをプレイヤーとしてモデル化する新しいフレームワークであるMultiplayer Federated Learning (MpFL)を導入する。
このシナリオでは、各プレイヤーは自身のユーティリティ機能を最適化しようとします。
MpFL内ではPEARL-SGD(Per-Player Local Stochastic Gradient Descent)を提案する。
理論的には、PEARL-SGDを解析し、非局所的よりも確率的設定での通信が少ない平衡付近に到達することを証明した。
最後に, 数値実験により理論的知見を検証した。
関連論文リスト
- Collaborative and Efficient Personalization with Mixtures of Adaptors [5.195669033269619]
マルチタスク学習問題に対処するパラメータ効率の枠組みを提案する。
FLoRAL(Federated Low-Rank Adaptive Learning)と呼ぶフレームワークがあります。
人工データセットと実世界のフェデレートされたマルチタスク問題に関する有望な実験結果を示す。
論文 参考訳(メタデータ) (2024-10-04T15:11:15Z) - Debiasing Federated Learning with Correlated Client Participation [25.521881752822164]
本稿では,FLのクライアント参加をマルコフ連鎖としてモデル化する理論的枠組みを紹介する。
すべてのクライアントは、再参加する前に最低限の$R$ラウンド(最小分離)を待たなければならない。
我々は、不偏の最適解に確実に収束するFedAvgの効果的な脱バイアスアルゴリズムを開発する。
論文 参考訳(メタデータ) (2024-10-02T03:30:53Z) - Neural Population Learning beyond Symmetric Zero-sum Games [52.20454809055356]
我々はNuPL-JPSROという,スキルの伝達学習の恩恵を受けるニューラル集団学習アルゴリズムを導入し,ゲームの粗相関(CCE)に収束する。
本研究は, 均衡収束型集団学習を大規模かつ汎用的に実施可能であることを示す。
論文 参考訳(メタデータ) (2024-01-10T12:56:24Z) - Tunable Soft Prompts are Messengers in Federated Learning [55.924749085481544]
フェデレートラーニング(FL)は、複数の参加者が分散データソースを使用して機械学習モデルを協調的にトレーニングすることを可能にする。
FLにおけるモデルプライバシ保護の欠如は無視できない課題となっている。
そこで本研究では,ソフトプロンプトによって参加者間の情報交換を実現する新しいFLトレーニング手法を提案する。
論文 参考訳(メタデータ) (2023-11-12T11:01:10Z) - Towards Instance-adaptive Inference for Federated Learning [80.38701896056828]
Federated Learning(FL)は、複数のクライアントがローカルトレーニングを集約することで、強力なグローバルモデルを学ぶことができる分散学習パラダイムである。
本稿では,FedInsという新しいFLアルゴリズムを提案する。
我々のFedInsは、Tiny-ImageNet上での通信コストが15%未満で、トップパフォーマンスの手法に対して6.64%の改善など、最先端のFLアルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-08-11T09:58:47Z) - FL Games: A Federated Learning Framework for Distribution Shifts [71.98708418753786]
フェデレートラーニングは、サーバのオーケストレーションの下で、クライアント間で分散されたデータの予測モデルをトレーニングすることを目的としている。
本稿では,クライアント間で不変な因果的特徴を学習するフェデレーション学習のためのゲーム理論フレームワークFL GAMESを提案する。
論文 参考訳(メタデータ) (2022-10-31T22:59:03Z) - FL Games: A federated learning framework for distribution shifts [71.98708418753786]
フェデレートラーニングは、サーバのオーケストレーションの下で、クライアント間で分散されたデータの予測モデルをトレーニングすることを目的としている。
本稿では,クライアント間で不変な因果的特徴を学習するためのゲーム理論のフレームワークであるFL Gamesを提案する。
論文 参考訳(メタデータ) (2022-05-23T07:51:45Z) - Enabling Long-Term Cooperation in Cross-Silo Federated Learning: A
Repeated Game Perspective [16.91343945299973]
Cross-silo Federated Learning (FL)は、クライアントがローカルデータをプライベートに保ちながら、グローバルモデルを協調的にトレーニングする分散学習アプローチである。
クライアントの長期的な利己的な参加行動は、無限に繰り返されるゲームとしてモデル化する。
我々は,モデルトレーニングのためのローカルデータの量を増やしつつ,フリーライダーの数を最小化するクライアントのための協調戦略を導出する。
論文 参考訳(メタデータ) (2021-06-22T14:27:30Z) - A Bayesian Federated Learning Framework with Online Laplace
Approximation [144.7345013348257]
フェデレートラーニングは、複数のクライアントが協力してグローバルに共有されたモデルを学ぶことを可能にする。
クライアント側とサーバ側の両方の後方部を近似するために,オンラインラプラス近似を用いた新しいFLフレームワークを提案する。
提案手法の利点を実証し,いくつかのベンチマークで最新の結果を得た。
論文 参考訳(メタデータ) (2021-02-03T08:36:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。