論文の概要: A Potential Game Perspective in Federated Learning
- arxiv url: http://arxiv.org/abs/2411.11793v1
- Date: Mon, 18 Nov 2024 18:06:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-19 14:28:18.017015
- Title: A Potential Game Perspective in Federated Learning
- Title(参考訳): フェデレーション学習におけるゲームの可能性
- Authors: Kang Liu, Ziqi Wang, Enrique Zuazua,
- Abstract要約: Federated Learning(FL)は、分散クライアント間で機械学習モデルをトレーニングするための新興パラダイムである。
本稿では,各クライアントの個々の努力とサーバが提供する報酬によって,各クライアントの支払いが決定される可能性のあるゲームフレームワークを提案する。
- 参考スコア(独自算出の注目度): 7.066313314590149
- License:
- Abstract: Federated learning (FL) is an emerging paradigm for training machine learning models across distributed clients. Traditionally, in FL settings, a central server assigns training efforts (or strategies) to clients. However, from a market-oriented perspective, clients may independently choose their training efforts based on rational self-interest. To explore this, we propose a potential game framework where each client's payoff is determined by their individual efforts and the rewards provided by the server. The rewards are influenced by the collective efforts of all clients and can be modulated through a reward factor. Our study begins by establishing the existence of Nash equilibria (NEs), followed by an investigation of uniqueness in homogeneous settings. We demonstrate a significant improvement in clients' training efforts at a critical reward factor, identifying it as the optimal choice for the server. Furthermore, we prove the convergence of the best-response algorithm to compute NEs for our FL game. Finally, we apply the training efforts derived from specific NEs to a real-world FL scenario, validating the effectiveness of the identified optimal reward factor.
- Abstract(参考訳): Federated Learning(FL)は、分散クライアント間で機械学習モデルをトレーニングするための新興パラダイムである。
伝統的に、FL設定では、中央サーバーがクライアントにトレーニングの取り組み(または戦略)を割り当てる。
しかし、市場志向の観点からは、クライアントは合理的な自己関心に基づいて、個別にトレーニング活動を選択することができる。
そこで本研究では,各クライアントの個々の努力とサーバが提供する報酬によって,各クライアントの支払いが決定される可能性のあるゲームフレームワークを提案する。
報酬はすべてのクライアントの集合的努力に影響を受けており、報酬係数によって変調することができる。
本研究は,Nash equilibria(NEs)の存在の確立と,同種環境における特異性の調査から始まった。
我々は、クライアントのトレーニング努力を重要な報酬要因で大幅に改善し、サーバにとって最適な選択であると判断する。
さらに,我々のFLゲームにおけるNEを計算するための最良応答アルゴリズムの収束性を証明した。
最後に、特定NEから派生したトレーニングを実世界のFLシナリオに適用し、同定された最適報酬係数の有効性を検証する。
関連論文リスト
- Federated Learning Can Find Friends That Are Advantageous [14.993730469216546]
フェデレートラーニング(FL)では、クライアントデータの分散の性質と均一性は、機会と課題の両方を示します。
本稿では,FLトレーニングに参加するクライアントに対して適応的なアグリゲーション重みを割り当てるアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-02-07T17:46:37Z) - Incentive Mechanism Design for Unbiased Federated Learning with
Randomized Client Participation [31.2017942327673]
本稿では,ランダムなクライアント参加を伴うフェデレーション学習(FL)のためのゲーム理論インセンティブ機構を提案する。
我々は,サーバのモデル性能向上とクライアントの利益向上を両立させることを実証した。
論文 参考訳(メタデータ) (2023-04-17T04:05:57Z) - Welfare and Fairness Dynamics in Federated Learning: A Client Selection
Perspective [1.749935196721634]
Federated Learning(FL)は、分散コンピューティングデバイスが共有学習モデルのトレーニングを可能にする、プライバシ保護学習技術である。
公正さやインセンティブといった顧客に対する経済的配慮は、まだ完全には検討されていない。
低品質なクライアントを除去するためのクライアント選択プロセスと、公正な報酬配分を保証するための送金プロセスを含む、新たなインセンティブ機構を提案する。
論文 参考訳(メタデータ) (2023-02-17T16:31:19Z) - Federated Learning as a Network Effects Game [32.264180198812745]
Federated Learning (FL) は、ローカルデータを直接共有することなく、機械学習の精度を向上させるために、多くのクライアント間のコラボレーションを促進することを目的としている。
実際には、クライアントは、特にプライバシや計算などの問題に関連する潜在的なコストを考慮して、FLに参加することの恩恵を受けないかもしれません。
私たちはFLにおけるクライアントの振る舞いをネットワークエフェクトゲームとしてモデル化し、各クライアントの利点はネットワークに参加する他のクライアントに依存します。
論文 参考訳(メタデータ) (2023-02-16T19:10:12Z) - FilFL: Client Filtering for Optimized Client Participation in Federated Learning [71.46173076298957]
フェデレートラーニングは、クライアントがローカルデータを交換することなく、協調的にモデルをトレーニングすることを可能にする。
トレーニングプロセスに参加するクライアントは、収束率、学習効率、モデル一般化に大きな影響を与えます。
本稿では,モデル一般化を改善し,クライアント参加とトレーニングを最適化する新しい手法であるクライアントフィルタリングを提案する。
論文 参考訳(メタデータ) (2023-02-13T18:55:31Z) - Client Selection in Federated Learning: Principles, Challenges, and
Opportunities [15.33636272844544]
Federated Learning(FL)は、機械学習(ML)モデルをトレーニングするためのプライバシー保護パラダイムである。
典型的なFLシナリオでは、クライアントはデータ分散とハードウェア構成の点で大きな異質性を示す。
様々なクライアント選択アルゴリズムが開発され、性能改善が期待できる。
論文 参考訳(メタデータ) (2022-11-03T01:51:14Z) - FL Games: A Federated Learning Framework for Distribution Shifts [71.98708418753786]
フェデレートラーニングは、サーバのオーケストレーションの下で、クライアント間で分散されたデータの予測モデルをトレーニングすることを目的としている。
本稿では,クライアント間で不変な因果的特徴を学習するフェデレーション学習のためのゲーム理論フレームワークFL GAMESを提案する。
論文 参考訳(メタデータ) (2022-10-31T22:59:03Z) - Fed-CBS: A Heterogeneity-Aware Client Sampling Mechanism for Federated
Learning via Class-Imbalance Reduction [76.26710990597498]
本研究では,ランダムに選択したクライアントからのグループデータのクラス不均衡が,性能の大幅な低下につながることを示す。
我々のキーとなる観測に基づいて、我々は効率的なクライアントサンプリング機構、すなわちフェデレートクラスバランスサンプリング(Fed-CBS)を設計する。
特に、クラス不均衡の尺度を提案し、その後、同型暗号化を用いてプライバシー保護方式でこの尺度を導出する。
論文 参考訳(メタデータ) (2022-09-30T05:42:56Z) - FL Games: A federated learning framework for distribution shifts [71.98708418753786]
フェデレートラーニングは、サーバのオーケストレーションの下で、クライアント間で分散されたデータの予測モデルをトレーニングすることを目的としている。
本稿では,クライアント間で不変な因果的特徴を学習するためのゲーム理論のフレームワークであるFL Gamesを提案する。
論文 参考訳(メタデータ) (2022-05-23T07:51:45Z) - A Contract Theory based Incentive Mechanism for Federated Learning [52.24418084256517]
フェデレートラーニング(FL)は、データプライバシ保護機械学習パラダイムとして機能し、分散クライアントによってトレーニングされた協調モデルを実現する。
FLタスクを達成するために、タスクパブリッシャはFLサーバに金銭的なインセンティブを支払う必要があり、FLサーバはFLクライアントにタスクをオフロードする。
タスクがクライアントによってプライベートにトレーニングされているという事実から、FLクライアントに対して適切なインセンティブを設計することは困難である。
論文 参考訳(メタデータ) (2021-08-12T07:30:42Z) - Blockchain Assisted Decentralized Federated Learning (BLADE-FL):
Performance Analysis and Resource Allocation [119.19061102064497]
ブロックチェーンをFL、すなわちブロックチェーン支援分散学習(BLADE-FL)に統合することで、分散FLフレームワークを提案する。
提案されたBLADE-FLのラウンドでは、各クライアントはトレーニング済みモデルを他のクライアントにブロードキャストし、受信したモデルに基づいてブロックを生成し、次のラウンドのローカルトレーニングの前に生成されたブロックからモデルを集約します。
遅延クライアントがblade-flの学習性能に与える影響を調査し,最適なk,学習パラメータ,遅延クライアントの割合の関係を特徴付ける。
論文 参考訳(メタデータ) (2021-01-18T07:19:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。