論文の概要: FMore: An Incentive Scheme of Multi-dimensional Auction for Federated
Learning in MEC
- arxiv url: http://arxiv.org/abs/2002.09699v1
- Date: Sat, 22 Feb 2020 13:43:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-29 19:12:13.329448
- Title: FMore: An Incentive Scheme of Multi-dimensional Auction for Federated
Learning in MEC
- Title(参考訳): FMore:MECにおけるフェデレーション学習のための多次元オークションのインセンティブスキーム
- Authors: Rongfei Zeng, Shixun Zhang, Jiaqi Wang and Xiaowen Chu
- Abstract要約: 本稿では,K当選者の多次元調達オークションを用いたインセンティブメカニズムFMoreを提案する。
我々の提案するFMoreは軽量でインセンティブに適合するだけでなく、学習に参加するために低コストで高品質なエッジノードを奨励します。
- 参考スコア(独自算出の注目度): 17.370238999812685
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Promising federated learning coupled with Mobile Edge Computing (MEC) is
considered as one of the most promising solutions to the AI-driven service
provision. Plenty of studies focus on federated learning from the performance
and security aspects, but they neglect the incentive mechanism. In MEC, edge
nodes would not like to voluntarily participate in learning, and they differ in
the provision of multi-dimensional resources, both of which might deteriorate
the performance of federated learning. Also, lightweight schemes appeal to edge
nodes in MEC. These features require the incentive mechanism to be well
designed for MEC. In this paper, we present an incentive mechanism FMore with
multi-dimensional procurement auction of K winners. Our proposal FMore not only
is lightweight and incentive compatible, but also encourages more high-quality
edge nodes with low cost to participate in learning and eventually improve the
performance of federated learning. We also present theoretical results of Nash
equilibrium strategy to edge nodes and employ the expected utility theory to
provide guidance to the aggregator. Both extensive simulations and real-world
experiments demonstrate that the proposed scheme can effectively reduce the
training rounds and drastically improve the model accuracy for challenging AI
tasks.
- Abstract(参考訳): モバイルエッジコンピューティング(MEC)と組み合わせたフェデレーション学習の促進は、AI駆動型サービス提供の最も有望なソリューションの1つだと考えられている。
多くの研究は、パフォーマンスとセキュリティの観点からの連合学習にフォーカスしているが、インセンティブのメカニズムは無視している。
MECでは、エッジノードは自発的に学習に参加したくないため、多次元リソースの提供が異なるため、どちらもフェデレート学習の性能が低下する可能性がある。
また、軽量なスキームはMECのエッジノードにアピールする。
これらの特徴はMECのためによく設計されたインセンティブメカニズムを必要とする。
本稿では,K当選者の多次元調達オークションを用いたインセンティブメカニズムFMoreを提案する。
提案するfmoreは軽量でインセンティブに適合するだけでなく、より高品質なエッジノードに学習参加を奨励し、最終的には連合学習のパフォーマンスを向上させる。
また, エッジノードに対するnash平衡戦略の理論的な結果を示し, アグリゲータへのガイダンスを提供するために, 期待効用理論を用いる。
大規模なシミュレーションと実世界の実験の両方で、提案手法がトレーニングラウンドを効果的に削減し、AIタスクに挑戦するモデルの精度を大幅に改善できることが示されている。
関連論文リスト
- Learning for Cross-Layer Resource Allocation in MEC-Aided Cell-Free Networks [71.30914500714262]
移動エッジコンピューティング(MEC)を援用したセルフリーネットワーク上でのクロスレイヤリソース割り当ては、データレートを促進するために、送信およびコンピューティングリソースを十分に活用することができる。
深層学習の観点からMEC支援セルフリーネットワークのサブキャリア配置とビームフォーミング最適化について検討した。
論文 参考訳(メタデータ) (2024-12-21T10:18:55Z) - Enhancing Spectrum Efficiency in 6G Satellite Networks: A GAIL-Powered Policy Learning via Asynchronous Federated Inverse Reinforcement Learning [67.95280175998792]
ビームフォーミング,スペクトルアロケーション,リモートユーザ機器(RUE)アソシエイトを最適化するために,GAILを利用した新しいポリシー学習手法を提案する。
手動チューニングなしで報酬関数を自動的に学習するために、逆RL(IRL)を用いる。
提案手法は従来のRL手法よりも優れており,コンバージェンスと報酬値の14.6%の改善が達成されている。
論文 参考訳(メタデータ) (2024-09-27T13:05:02Z) - Design of Two-Level Incentive Mechanisms for Hierarchical Federated
Learning [14.415051383317788]
我々は、HFLトレーニングにおいて、各階層におけるエンティティの参加を促進するために、2階層の計算構造を持つ2段階のHFLインセンティブ機構を設計する。
上層ゲームでは,エッジサーバのエッジアグリゲーション数を最大化するために最適なエッジアグリゲーション数を決定できるStackelbergゲームアルゴリズムを設計する。
論文 参考訳(メタデータ) (2023-04-09T05:10:05Z) - Welfare and Fairness Dynamics in Federated Learning: A Client Selection
Perspective [1.749935196721634]
Federated Learning(FL)は、分散コンピューティングデバイスが共有学習モデルのトレーニングを可能にする、プライバシ保護学習技術である。
公正さやインセンティブといった顧客に対する経済的配慮は、まだ完全には検討されていない。
低品質なクライアントを除去するためのクライアント選択プロセスと、公正な報酬配分を保証するための送金プロセスを含む、新たなインセンティブ機構を提案する。
論文 参考訳(メタデータ) (2023-02-17T16:31:19Z) - Collaboration in Participant-Centric Federated Learning: A
Game-Theoretical Perspective [29.06665697241795]
Federated Learning(FL)は、協調人工知能モデルトレーニングのための有望な分散フレームワークである。
重要な研究の注目を集めているブートストラップコンポーネントは、FLにおけるユーザの協調を刺激するインセンティブメカニズムの設計である。
共通の関心のためにFLモデルを追求するために、参加者間の参加者中心のコラボレーションを鍛えることを検討する作業はほとんどない。
本稿では, 参加者中心のFLに対して, 効果的かつ効率的なコラボレーションを促すための新しい分析フレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-25T10:12:22Z) - Nothing Wasted: Full Contribution Enforcement in Federated Edge Learning [11.904704686663473]
本稿では,不完全情報型マルチプレイヤーFELゲームにおける集合的ゆがみ(CE)戦略を提案する。
提案したCE戦略は,従来のゆがみ戦略を拡張して,一人の相手に対して期待されるユーティリティの比例的シェアを制御している。
理論的解析と実験的評価の両方が提案手法の有効性と妥当性を検証した。
論文 参考訳(メタデータ) (2021-10-15T19:32:37Z) - Motivating Learners in Multi-Orchestrator Mobile Edge Learning: A
Stackelberg Game Approach [54.28419430315478]
Mobile Edge Learningは、異種エッジデバイス上で機械学習モデルの分散トレーニングを可能にする。
MELでは、十分なトレーニングデータやコンピューティングリソースを入手することなく、トレーニング性能が低下する。
そこで我々は2ラウンドのStackelbergゲームとしてオーケストレータとラーナーの相互作用を定式化するインセンティブ機構を提案する。
論文 参考訳(メタデータ) (2021-09-25T17:27:48Z) - Softmax with Regularization: Better Value Estimation in Multi-Agent
Reinforcement Learning [72.28520951105207]
q$-learningの過大評価は、シングルエージェント強化学習で広く研究されている重要な問題である。
ベースラインから逸脱する大きな関節動作値をペナライズする,新たな正規化ベースの更新方式を提案する。
本手法は,StarCraft IIマイクロマネジメントの課題に対して,一貫した性能向上を実現する。
論文 参考訳(メタデータ) (2021-03-22T14:18:39Z) - Deep Multi-Task Learning for Cooperative NOMA: System Design and
Principles [52.79089414630366]
我々は,近年のディープラーニング(DL)の進歩を反映した,新しいディープ・コラボレーティブなNOMAスキームを開発する。
我々は,システム全体を包括的に最適化できるように,新しいハイブリッドカスケードディープニューラルネットワーク(DNN)アーキテクチャを開発した。
論文 参考訳(メタデータ) (2020-07-27T12:38:37Z) - Incentive Mechanism Design for Resource Sharing in Collaborative Edge
Learning [106.51930957941433]
5GとBeyondネットワークでは、人工知能のアプリケーションがますます普及すると予想されている。
これは、現在のクラウド中心のモデルトレーニングアプローチから、エッジラーニングとして知られるエッジコンピューティングベースの協調学習スキームへのパラダイムシフトを必要とする。
論文 参考訳(メタデータ) (2020-05-31T12:45:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。