論文の概要: Asynchronous Federated Learning with Incentive Mechanism Based on
Contract Theory
- arxiv url: http://arxiv.org/abs/2310.06448v1
- Date: Tue, 10 Oct 2023 09:17:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-12 01:59:44.133724
- Title: Asynchronous Federated Learning with Incentive Mechanism Based on
Contract Theory
- Title(参考訳): 契約理論に基づくインセンティブメカニズムによる非同期フェデレーション学習
- Authors: Danni Yang, Yun Ji, Zhoubin Kou, Xiaoxiong Zhong, Sheng Zhang
- Abstract要約: 本稿では,契約理論に基づくインセンティブ機構を統合した新しい非同期FLフレームワークを提案する。
攻撃対象のローカルSGDよりも精度が1.35%向上した。
- 参考スコア(独自算出の注目度): 5.502596101979607
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To address the challenges posed by the heterogeneity inherent in federated
learning (FL) and to attract high-quality clients, various incentive mechanisms
have been employed. However, existing incentive mechanisms are typically
utilized in conventional synchronous aggregation, resulting in significant
straggler issues. In this study, we propose a novel asynchronous FL framework
that integrates an incentive mechanism based on contract theory. Within the
incentive mechanism, we strive to maximize the utility of the task publisher by
adaptively adjusting clients' local model training epochs, taking into account
factors such as time delay and test accuracy. In the asynchronous scheme,
considering client quality, we devise aggregation weights and an access control
algorithm to facilitate asynchronous aggregation. Through experiments conducted
on the MNIST dataset, the simulation results demonstrate that the test accuracy
achieved by our framework is 3.12% and 5.84% higher than that achieved by
FedAvg and FedProx without any attacks, respectively. The framework exhibits a
1.35% accuracy improvement over the ideal Local SGD under attacks. Furthermore,
aiming for the same target accuracy, our framework demands notably less
computation time than both FedAvg and FedProx.
- Abstract(参考訳): フェデレーション学習(fl)に内在する異質性に対処し,高品質なクライアントを惹きつけるために,様々なインセンティブ機構が採用されている。
しかし、既存のインセンティブメカニズムは、通常、従来の同期アグリゲーションで利用され、大きなトラグラー問題を引き起こす。
本研究では,契約理論に基づくインセンティブ機構を統合した新しい非同期FLフレームワークを提案する。
インセンティブメカニズムの中では、時間遅延やテスト精度などの要因を考慮して、クライアントのローカルモデルトレーニングのエポックを適応的に調整し、タスクパブリッシャの有用性を最大化する。
クライアント品質を考慮した非同期方式では,集約重みとアクセス制御アルゴリズムを考案し,非同期集約を容易にする。
MNISTデータセットを用いて行った実験により、我々のフレームワークが達成したテスト精度は、攻撃を受けずにFedAvgとFedProxより3.12%高く、5.84%高いことがわかった。
このフレームワークは攻撃時の理想的なローカルSGDよりも1.35%精度が向上している。
さらに、同じ目標精度を目指して、我々のフレームワークは明らかにFedAvgとFedProxよりも計算時間が少ないことを要求しています。
関連論文リスト
- FedStaleWeight: Buffered Asynchronous Federated Learning with Fair Aggregation via Staleness Reweighting [9.261784956541641]
非同期フェデレートラーニング(AFL)メソッドは、最も遅いエージェントによる非同期フェデレーションに代わる、有望な代替手段として登場した。
AFLモデルでは、更新を高速に生成できるエージェントに対して、遅いエージェントを残してトレーニングを行う。
我々はFedStaleWeightを紹介した。これは非同期クライアント更新の集約に、平均安定化を利用して公平な再重み付けを計算するアルゴリズムである。
論文 参考訳(メタデータ) (2024-06-05T02:52:22Z) - On the Role of Server Momentum in Federated Learning [85.54616432098706]
a)フェデレートラーニング(FL)において未探索な大量のモーメントスキームを網羅するサーバモーメントの一般的な枠組みを提案する。
提案するフレームワークに対して厳密な収束解析を行う。
論文 参考訳(メタデータ) (2023-12-19T23:56:49Z) - Momentum Benefits Non-IID Federated Learning Simply and Provably [22.800862422479913]
フェデレートラーニングは大規模機械学習の強力なパラダイムである。
FedAvgとSCAFFOLDは、これらの課題に対処する2つの顕著なアルゴリズムである。
本稿では,FedAvgとSCAFFOLDの性能向上のための運動量の利用について検討する。
論文 参考訳(メタデータ) (2023-06-28T18:52:27Z) - Federated Conformal Predictors for Distributed Uncertainty
Quantification [83.50609351513886]
コンフォーマル予測は、機械学習において厳密な不確実性定量化を提供するための一般的なパラダイムとして現れつつある。
本稿では,共形予測を連邦学習環境に拡張する。
本稿では、FL設定に適した部分交換可能性の弱い概念を提案し、それをフェデレート・コンフォーマル予測フレームワークの開発に利用する。
論文 参考訳(メタデータ) (2023-05-27T19:57:27Z) - Personalized Federated Learning under Mixture of Distributions [98.25444470990107]
本稿では,ガウス混合モデル(GMM)を用いたPFL(Personalized Federated Learning)を提案する。
FedGMMはオーバーヘッドを最小限に抑え、新しいクライアントに適応する付加的なアドバンテージを持ち、不確実な定量化を可能にします。
PFL分類と新しいサンプル検出の両方において, 合成データセットとベンチマークデータセットの実証評価により, 提案手法の優れた性能を示した。
論文 参考訳(メタデータ) (2023-05-01T20:04:46Z) - Adaptive Federated Learning via New Entropy Approach [14.595709494370372]
Federated Learning (FL) は、分散機械学習フレームワークとして注目されている。
本稿では,不均一クライアント間のパラメータ偏差を軽減するために,entropy理論(FedEnt)に基づく適応型FEDerated Learningアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-03-27T07:57:04Z) - FedSkip: Combatting Statistical Heterogeneity with Federated Skip
Aggregation [95.85026305874824]
我々はFedSkipと呼ばれるデータ駆動型アプローチを導入し、フェデレーション平均化を定期的にスキップし、ローカルモデルをクロスデバイスに分散することで、クライアントの最適化を改善する。
我々は、FedSkipがはるかに高い精度、より良いアグリゲーション効率、競合する通信効率を達成することを示すために、さまざまなデータセットに関する広範な実験を行う。
論文 参考訳(メタデータ) (2022-12-14T13:57:01Z) - Fed-CBS: A Heterogeneity-Aware Client Sampling Mechanism for Federated
Learning via Class-Imbalance Reduction [76.26710990597498]
本研究では,ランダムに選択したクライアントからのグループデータのクラス不均衡が,性能の大幅な低下につながることを示す。
我々のキーとなる観測に基づいて、我々は効率的なクライアントサンプリング機構、すなわちフェデレートクラスバランスサンプリング(Fed-CBS)を設計する。
特に、クラス不均衡の尺度を提案し、その後、同型暗号化を用いてプライバシー保護方式でこの尺度を導出する。
論文 参考訳(メタデータ) (2022-09-30T05:42:56Z) - A General Theory for Federated Optimization with Asynchronous and
Heterogeneous Clients Updates [10.609815608017065]
我々は、クライアント更新時間の変動を表すために集約重みを導入し、標準のFedAvgアグリゲーションスキームを拡張した。
私たちのフォーマリズムは、クライアントが不均一なデータセットを持ち、少なくとも1ステップの勾配降下を行う、一般的な連邦設定に適用されます。
我々は,FedAvgの新たな拡張であるFedFixを開発し,同期アグリゲーションの収束安定性を維持しつつ,効率的な非同期フェデレーショントレーニングを実現する。
論文 参考訳(メタデータ) (2022-06-21T08:46:05Z) - Federated Learning with Unreliable Clients: Performance Analysis and
Mechanism Design [76.29738151117583]
Federated Learning(FL)は、分散クライアント間で効果的な機械学習モデルをトレーニングするための有望なツールとなっている。
しかし、低品質のモデルは信頼性の低いクライアントによってアグリゲータサーバにアップロードすることができ、劣化やトレーニングの崩壊につながる。
クライアントの信頼できない振る舞いをモデル化し、このようなセキュリティリスクを軽減するための防御メカニズムを提案する。
論文 参考訳(メタデータ) (2021-05-10T08:02:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。