論文の概要: BARA: Efficient Incentive Mechanism with Online Reward Budget Allocation
in Cross-Silo Federated Learning
- arxiv url: http://arxiv.org/abs/2305.05221v2
- Date: Tue, 16 May 2023 02:33:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-17 18:11:07.546429
- Title: BARA: Efficient Incentive Mechanism with Online Reward Budget Allocation
in Cross-Silo Federated Learning
- Title(参考訳): BARA: クロスサイロ・フェデレーションラーニングにおけるオンラインリワード予算配分による効果的なインセンティブメカニズム
- Authors: Yunchao Yang, Yipeng Zhou, Miao Hu, Di Wu, Quan Z. Sheng
- Abstract要約: Federated Learning(FL)は、データプライバシを保護可能な、予測可能な分散機械学習フレームワークである。
クロスサイロFLでは、データ所有者がFLトレーニングにモデルを貢献するためのインセンティブメカニズムが不可欠である。
本稿では,BARA というベイズ最適化を用いたオンライン報酬予算配分アルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 25.596968764427043
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning (FL) is a prospective distributed machine learning
framework that can preserve data privacy. In particular, cross-silo FL can
complete model training by making isolated data islands of different
organizations collaborate with a parameter server (PS) via exchanging model
parameters for multiple communication rounds. In cross-silo FL, an incentive
mechanism is indispensable for motivating data owners to contribute their
models to FL training. However, how to allocate the reward budget among
different rounds is an essential but complicated problem largely overlooked by
existing works. The challenge of this problem lies in the opaque feedback
between reward budget allocation and model utility improvement of FL, making
the optimal reward budget allocation complicated. To address this problem, we
design an online reward budget allocation algorithm using Bayesian optimization
named BARA (\underline{B}udget \underline{A}llocation for \underline{R}everse
\underline{A}uction). Specifically, BARA can model the complicated relationship
between reward budget allocation and final model accuracy in FL based on
historical training records so that the reward budget allocated to each
communication round is dynamically optimized so as to maximize the final model
utility. We further incorporate the BARA algorithm into reverse auction-based
incentive mechanisms to illustrate its effectiveness. Extensive experiments are
conducted on real datasets to demonstrate that BARA significantly outperforms
competitive baselines by improving model utility with the same amount of reward
budget.
- Abstract(参考訳): Federated Learning(FL)は、データプライバシを保護可能な、予測可能な分散機械学習フレームワークである。
特に、クロスサイロFLは、複数の通信ラウンドのモデルパラメータを交換することで、異なる組織の孤立したデータアイランドをパラメータサーバ(PS)と協調させることで、モデルトレーニングを完了することができる。
クロスサイロFLでは、データ所有者がFLトレーニングにモデルを貢献するためのインセンティブメカニズムが不可欠である。
しかし、異なるラウンドに報酬予算を割り当てる方法は必須だが、既存の作業で見落とされがちな問題である。
この問題の課題は、報酬予算配分とモデルユーティリティ改善の間の不透明なフィードバックであり、最適な報酬予算割り当てを複雑にしている。
この問題を解決するために、BARA (\underline{B}udget \underline{A}llocation for \underline{R}everse \underline{A}uction) というベイズ最適化を用いたオンライン報酬予算配分アルゴリズムを設計する。
具体的には、通信ラウンド毎に割り当てられた報酬予算を動的に最適化し、最終モデルユーティリティを最大化できるように、歴史訓練記録に基づいてflにおける報酬予算割り当てと最終モデル精度との複雑な関係をモデル化することができる。
さらに,BARAアルゴリズムを逆オークションベースのインセンティブ機構に組み込んで,その有効性を示す。
実データセット上で大規模な実験を行い、BARAが同じ報酬予算でモデルユーティリティを改善することにより、競争ベースラインを著しく上回ることを示す。
関連論文リスト
- DPBalance: Efficient and Fair Privacy Budget Scheduling for Federated
Learning as a Service [15.94482624965024]
フェデレーテッド・ラーニング(FL)は、一般的な分散機械学習スキームとして登場した。
DPBalanceは,効率性と公平性を両立させる新しいプライバシ予算スケジューリング機構である。
DPBalanceは平均効率改善が1.44倍のsim 3.49倍、平均フェアネス改善が1.37倍のsim 24.32倍であることを示す。
論文 参考訳(メタデータ) (2024-02-15T05:19:53Z) - Learner Referral for Cost-Effective Federated Learning Over Hierarchical
IoT Networks [21.76836812021954]
本稿では,連合選択(LRef-FedCS),通信資源,局所モデル精度(LMAO)手法を支援する。
提案したLRef-FedCSアプローチは,高いグローバル精度とコスト削減のバランスをとることができる。
論文 参考訳(メタデータ) (2023-07-19T13:33:43Z) - Vertical Federated Learning over Cloud-RAN: Convergence Analysis and
System Optimization [82.12796238714589]
高速かつ正確なモデルアグリゲーションを実現するために,クラウド無線アクセスネットワーク(Cloud-RAN)ベースの垂直FLシステムを提案する。
アップリンクとダウンリンクの両方の伝送を考慮した垂直FLアルゴリズムの収束挙動を特徴付ける。
我々は,連続凸近似と代替凸探索に基づくシステム最適化アルゴリズムを開発した,連系トランシーバとフロントホール量子化設計によるシステム最適化フレームワークを構築した。
論文 参考訳(メタデータ) (2023-05-04T09:26:03Z) - SuperFed: Weight Shared Federated Learning [4.396860522241306]
グローバルモデルのファミリーをトレーニングするためには、フェデレートされた方法で効率よくコストがかかる。
SuperFed - 大規模なモデル群を共同トレーニングするために、$O(1)$コストを発生させるアーキテクチャフレームワークを提案する。
通信と計算の両方において、大幅なコスト削減を実現しています。
論文 参考訳(メタデータ) (2023-01-26T00:17:10Z) - FedDM: Iterative Distribution Matching for Communication-Efficient
Federated Learning [87.08902493524556]
フェデレートラーニング(FL)は近年、学術や産業から注目を集めている。
我々は,複数の局所的代理関数からグローバルなトレーニング目標を構築するためのFedDMを提案する。
そこで本研究では,各クライアントにデータ集合を構築し,元のデータから得られた損失景観を局所的にマッチングする。
論文 参考訳(メタデータ) (2022-07-20T04:55:18Z) - Dynamic Attention-based Communication-Efficient Federated Learning [85.18941440826309]
フェデレートラーニング(FL)は、グローバル機械学習モデルをトレーニングするためのソリューションを提供する。
FLは、クライアントデータの分散が非IIDであるときに性能劣化に悩まされる。
本稿では,この劣化に対処するために,新しい適応トレーニングアルゴリズムであるtextttAdaFL$を提案する。
論文 参考訳(メタデータ) (2021-08-12T14:18:05Z) - A Contract Theory based Incentive Mechanism for Federated Learning [52.24418084256517]
フェデレートラーニング(FL)は、データプライバシ保護機械学習パラダイムとして機能し、分散クライアントによってトレーニングされた協調モデルを実現する。
FLタスクを達成するために、タスクパブリッシャはFLサーバに金銭的なインセンティブを支払う必要があり、FLサーバはFLクライアントにタスクをオフロードする。
タスクがクライアントによってプライベートにトレーニングされているという事実から、FLクライアントに対して適切なインセンティブを設計することは困難である。
論文 参考訳(メタデータ) (2021-08-12T07:30:42Z) - Edge-assisted Democratized Learning Towards Federated Analytics [67.44078999945722]
本稿では,エッジ支援型民主化学習機構であるEdge-DemLearnの階層的学習構造を示す。
また、Edge-DemLearnを柔軟なモデルトレーニングメカニズムとして検証し、リージョンに分散制御と集約の方法論を構築する。
論文 参考訳(メタデータ) (2020-12-01T11:46:03Z) - Collaborative Machine Learning with Incentive-Aware Model Rewards [32.43927226170119]
コラボレーティブ機械学習(Collaborative Machine Learning, ML)は、多くのパーティから収集されたデータをトレーニングすることで、高品質なMLモデルを構築するための魅力的なパラダイムである。
これらの団体は、貢献に基づいて公正な報酬が保証されるなど、十分なインセンティブを与えられた場合にのみ、データを共有する意思を持っている。
本稿では,そのデータから得られるモデルの値と情報ゲインに基づいて,当事者の報酬を評価することを提案する。
論文 参考訳(メタデータ) (2020-10-24T06:20:55Z) - An Incentive Mechanism for Federated Learning in Wireless Cellular
network: An Auction Approach [75.08185720590748]
Federated Learning(FL)は、機械学習の分散問題に対処できる分散学習フレームワークである。
本稿では,1つの基地局(BS)と複数のモバイルユーザを含むFLシステムについて考察する。
我々は,BSとモバイルユーザの間のインセンティブメカニズムを,BSが競売業者であり,モバイルユーザが売り手であるオークションゲームとして定式化する。
論文 参考訳(メタデータ) (2020-09-22T01:50:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。