論文の概要: Enabling Long-Term Cooperation in Cross-Silo Federated Learning: A
Repeated Game Perspective
- arxiv url: http://arxiv.org/abs/2106.11814v1
- Date: Tue, 22 Jun 2021 14:27:30 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-23 14:42:34.932245
- Title: Enabling Long-Term Cooperation in Cross-Silo Federated Learning: A
Repeated Game Perspective
- Title(参考訳): クロスサイロ連合学習における長期協調の実現--繰り返しゲームの視点から
- Authors: Ning Zhang, Qian Ma, Xu Chen
- Abstract要約: Cross-silo Federated Learning (FL)は、クライアントがローカルデータをプライベートに保ちながら、グローバルモデルを協調的にトレーニングする分散学習アプローチである。
クライアントの長期的な利己的な参加行動は、無限に繰り返されるゲームとしてモデル化する。
我々は,モデルトレーニングのためのローカルデータの量を増やしつつ,フリーライダーの数を最小化するクライアントのための協調戦略を導出する。
- 参考スコア(独自算出の注目度): 16.91343945299973
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Cross-silo federated learning (FL) is a distributed learning approach where
clients train a global model cooperatively while keeping their local data
private. Different from cross-device FL, clients in cross-silo FL are usually
organizations or companies which may execute multiple cross-silo FL processes
repeatedly due to their time-varying local data sets, and aim to optimize their
long-term benefits by selfishly choosing their participation levels. While
there has been some work on incentivizing clients to join FL, the analysis of
the long-term selfish participation behaviors of clients in cross-silo FL
remains largely unexplored. In this paper, we analyze the selfish participation
behaviors of heterogeneous clients in cross-silo FL. Specifically, we model the
long-term selfish participation behaviors of clients as an infinitely repeated
game, with the stage game being a selfish participation game in one cross-silo
FL process (SPFL). For the stage game SPFL, we derive the unique Nash
equilibrium (NE), and propose a distributed algorithm for each client to
calculate its equilibrium participation strategy. For the long-term
interactions among clients, we derive a cooperative strategy for clients which
minimizes the number of free riders while increasing the amount of local data
for model training. We show that enforced by a punishment strategy, such a
cooperative strategy is a SPNE of the infinitely repeated game, under which
some clients who are free riders at the NE of the stage game choose to be
(partial) contributors. We further propose an algorithm to calculate the
optimal SPNE which minimizes the number of free riders while maximizing the
amount of local data for model training. Simulation results show that our
proposed cooperative strategy at the optimal SPNE can effectively reduce the
number of free riders and increase the amount of local data for model training.
- Abstract(参考訳): cross-silo federated learning (fl)は、ローカルデータをプライベートに保ちながら、グローバルなモデルを協調的にトレーニングする分散学習アプローチである。
クロスデバイスFLとは異なり、クロスサイロFLのクライアントは通常、時間によって異なるローカルデータセットのために複数のクロスサイロFLプロセスを繰り返し実行し、参加レベルを自己選択することで長期的な利益を最適化する組織または企業である。
flに参加するようクライアントにインセンティブを与える作業はいくつかあったが、クロスサイロflにおけるクライアントの長期的な利己的な参加行動の分析はほとんど未調査のままである。
本稿では,クロスサイロFLにおける異種クライアントの自己参加行動を分析する。
具体的には、ステージゲームが1つのクロスサイロflプロセス(spfl)において、クライアントの長期的な自己参加行動を無限に繰り返したゲームとしてモデル化する。
ステージゲームspflでは,一意なnash平衡(ne)を導出し,各クライアントに対して均衡参加戦略を計算する分散アルゴリズムを提案する。
顧客間の長期的インタラクションについては、モデルトレーニングのためのローカルデータ量を増やしつつ、フリーライダー数を最小限に抑えるクライアントのための協調戦略を導出する。
罰則によって実施されるこのような協調戦略は、無限に繰り返されるゲームのSPNEであり、ステージゲームのNEのフリーライダーである一部のクライアントが(部分的な)コントリビュータになることが示される。
さらに,モデル学習のための局所データ量を最大化しながら,フリーライダーの数を最小化する最適なSPNEを計算するアルゴリズムを提案する。
シミュレーションの結果, 最適SPNEにおける協調戦略は, フリーライダーの数を効果的に削減し, モデルトレーニングのためのローカルデータ量を増やすことができることがわかった。
関連論文リスト
- Embracing Federated Learning: Enabling Weak Client Participation via Partial Model Training [21.89214794178211]
フェデレートラーニング(FL)では、クライアントは完全なモデルをトレーニングしたり、メモリ空間に保持することができない弱いデバイスを持っているかもしれない。
我々は、すべての利用可能なクライアントが分散トレーニングに参加することを可能にする、一般的なFLフレームワークであるEnbracingFLを提案する。
実験により,FL の導入は,すべてのクライアントが強力であるように常に高い精度を達成し,最先端の幅削減手法よりも優れていた。
論文 参考訳(メタデータ) (2024-06-21T13:19:29Z) - Prune at the Clients, Not the Server: Accelerated Sparse Training in Federated Learning [56.21666819468249]
クライアントのリソース制約と通信コストは、フェデレートラーニングにおける大規模モデルのトレーニングに大きな問題を引き起こす。
Sparse-ProxSkipを導入し、スパース環境でのトレーニングとアクセラレーションを組み合わせた。
Sparse-ProxSkipの優れた性能を広範な実験で実証する。
論文 参考訳(メタデータ) (2024-05-31T05:21:12Z) - PFL-GAN: When Client Heterogeneity Meets Generative Models in
Personalized Federated Learning [55.930403371398114]
パーソナライズドラーニング(PFL)のための新しいGAN(Generative Adversarial Network)の共有と集約戦略を提案する。
PFL-GANは、異なるシナリオにおけるクライアントの不均一性に対処する。より具体的には、まずクライアント間の類似性を学び、次に重み付けされた協調データアグリゲーションを開発する。
いくつかのよく知られたデータセットに対する厳密な実験による実験結果は、PFL-GANの有効性を示している。
論文 参考訳(メタデータ) (2023-08-23T22:38:35Z) - Towards Instance-adaptive Inference for Federated Learning [80.38701896056828]
Federated Learning(FL)は、複数のクライアントがローカルトレーニングを集約することで、強力なグローバルモデルを学ぶことができる分散学習パラダイムである。
本稿では,FedInsという新しいFLアルゴリズムを提案する。
我々のFedInsは、Tiny-ImageNet上での通信コストが15%未満で、トップパフォーマンスの手法に対して6.64%の改善など、最先端のFLアルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-08-11T09:58:47Z) - Optimizing the Collaboration Structure in Cross-Silo Federated Learning [43.388911479025225]
フェデレートラーニング(FL)では、複数のクライアントが協力して機械学習モデルをトレーニングする。
クライアントのクラスタ化による非重複連立への負の移動を緩和する新しいFLフレームワークであるFedCollabを提案する。
以上の結果から,FedCollabは広い範囲のFLアルゴリズムにまたがる負の転送を効果的に軽減し,クラスタリングされたFLアルゴリズムを一貫して上回ることを示す。
論文 参考訳(メタデータ) (2023-06-10T18:59:50Z) - Free-Rider Games for Federated Learning with Selfish Clients in NextG
Wireless Networks [1.1726528038065764]
本稿では,フェデレートラーニング(FL)におけるゲーム理論の枠組みについて述べる。
FLは、NextG通信のためのスペクトルセンシングをサポートするためにクライアントによって使用される。
フリーライディング行動は、グローバルモデル学習への貢献の欠如により、世界的な精度を低下させる可能性がある。
論文 参考訳(メタデータ) (2022-12-21T17:10:55Z) - FL Games: A Federated Learning Framework for Distribution Shifts [71.98708418753786]
フェデレートラーニングは、サーバのオーケストレーションの下で、クライアント間で分散されたデータの予測モデルをトレーニングすることを目的としている。
本稿では,クライアント間で不変な因果的特徴を学習するフェデレーション学習のためのゲーム理論フレームワークFL GAMESを提案する。
論文 参考訳(メタデータ) (2022-10-31T22:59:03Z) - To Federate or Not To Federate: Incentivizing Client Participation in
Federated Learning [22.3101738137465]
フェデレートラーニング(FL)は、共通の機械学習モデルをトレーニングしようとするクライアントのグループ間のコラボレーションを促進する。
本稿では,グローバルモデルにインセンティブを与えるクライアントの割合を明示的に最大化する,IncFLと呼ばれるアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-05-30T04:03:31Z) - Combating Client Dropout in Federated Learning via Friend Model
Substitution [8.325089307976654]
Federated Learning(FL)は、データプライバシと通信効率のメリットで知られる、新たな分散機械学習フレームワークである。
本稿では,受動的部分的クライアント参加シナリオについて検討する。
我々は,データ配信に類似したクライアントの友人を検出する新しいアルゴリズムFL-FDMSを開発した。
MNISTとCIFAR-10の実験により、FL-FDMSのFLにおけるクライアントドロップアウト処理における優れた性能が確認された。
論文 参考訳(メタデータ) (2022-05-26T08:34:28Z) - FL Games: A federated learning framework for distribution shifts [71.98708418753786]
フェデレートラーニングは、サーバのオーケストレーションの下で、クライアント間で分散されたデータの予測モデルをトレーニングすることを目的としている。
本稿では,クライアント間で不変な因果的特徴を学習するためのゲーム理論のフレームワークであるFL Gamesを提案する。
論文 参考訳(メタデータ) (2022-05-23T07:51:45Z) - Blockchain Assisted Decentralized Federated Learning (BLADE-FL):
Performance Analysis and Resource Allocation [119.19061102064497]
ブロックチェーンをFL、すなわちブロックチェーン支援分散学習(BLADE-FL)に統合することで、分散FLフレームワークを提案する。
提案されたBLADE-FLのラウンドでは、各クライアントはトレーニング済みモデルを他のクライアントにブロードキャストし、受信したモデルに基づいてブロックを生成し、次のラウンドのローカルトレーニングの前に生成されたブロックからモデルを集約します。
遅延クライアントがblade-flの学習性能に与える影響を調査し,最適なk,学習パラメータ,遅延クライアントの割合の関係を特徴付ける。
論文 参考訳(メタデータ) (2021-01-18T07:19:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。