論文の概要: An Incentive Mechanism for Federated Learning in Wireless Cellular
network: An Auction Approach
- arxiv url: http://arxiv.org/abs/2009.10269v1
- Date: Tue, 22 Sep 2020 01:50:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-15 23:27:43.435401
- Title: An Incentive Mechanism for Federated Learning in Wireless Cellular
network: An Auction Approach
- Title(参考訳): 無線セルラーネットワークにおけるフェデレーション学習のインセンティブメカニズム--オークションアプローチ
- Authors: Tra Huong Thi Le, Nguyen H. Tran, Yan Kyaw Tun, Minh N. H. Nguyen,
Shashi Raj Pandey, Zhu Han, and Choong Seon Hong
- Abstract要約: Federated Learning(FL)は、機械学習の分散問題に対処できる分散学習フレームワークである。
本稿では,1つの基地局(BS)と複数のモバイルユーザを含むFLシステムについて考察する。
我々は,BSとモバイルユーザの間のインセンティブメカニズムを,BSが競売業者であり,モバイルユーザが売り手であるオークションゲームとして定式化する。
- 参考スコア(独自算出の注目度): 75.08185720590748
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated Learning (FL) is a distributed learning framework that can deal
with the distributed issue in machine learning and still guarantee high
learning performance. However, it is impractical that all users will sacrifice
their resources to join the FL algorithm. This motivates us to study the
incentive mechanism design for FL. In this paper, we consider a FL system that
involves one base station (BS) and multiple mobile users. The mobile users use
their own data to train the local machine learning model, and then send the
trained models to the BS, which generates the initial model, collects local
models and constructs the global model. Then, we formulate the incentive
mechanism between the BS and mobile users as an auction game where the BS is an
auctioneer and the mobile users are the sellers. In the proposed game, each
mobile user submits its bids according to the minimal energy cost that the
mobile users experiences in participating in FL. To decide winners in the
auction and maximize social welfare, we propose the primal-dual greedy auction
mechanism. The proposed mechanism can guarantee three economic properties,
namely, truthfulness, individual rationality and efficiency. Finally, numerical
results are shown to demonstrate the performance effectiveness of our proposed
mechanism.
- Abstract(参考訳): フェデレーション学習(federated learning, fl)は、マシンラーニングの分散問題に対処し、高い学習性能を保証できる分散学習フレームワークである。
しかし、すべてのユーザがFLアルゴリズムに参加するためにリソースを犠牲にするのは現実的ではない。
これは、flのインセンティブメカニズム設計を研究する動機となります。
本稿では,1つの基地局(BS)と複数のモバイルユーザを含むFLシステムについて考察する。
モバイルユーザは独自のデータを使用して、ローカル機械学習モデルをトレーニングし、トレーニングされたモデルをBSに送り、初期モデルを生成し、ローカルモデルを収集し、グローバルモデルを構築する。
次に,BSとモバイルユーザ間のインセンティブメカニズムを,BSが競売業者であり,モバイルユーザが売り手であるオークションゲームとして定式化する。
提案ゲームでは,モバイルユーザがflに参加する際に経験する最小限のエネルギーコストに従って,各モバイルユーザが入札を行う。
競売の勝者を選定し,社会福祉の最大化を図るため,プライマリ・デュアルグリージーオークション機構を提案する。
提案されたメカニズムは、真理性、個人の合理性、効率性の3つの経済的特性を保証することができる。
最後に,提案手法の有効性を示す数値実験を行った。
関連論文リスト
- GAI-Enabled Explainable Personalized Federated Semi-Supervised Learning [29.931169585178818]
フェデレーテッド・ラーニング(Federated Learning, FL)は、人工知能(AI)モデルをトレーニングするモバイルユーザー(MU)のための一般的な分散アルゴリズムである。
我々は,XPFLと呼ばれるパーソナライズ可能なFLフレームワークを提案する。特にローカルトレーニングでは,生成型AI(GAI)モデルを用いて,大規模なラベルなしデータから学習する。
グローバルアグリゲーションにおいて、局所的および大域的FLモデルを特定の割合で融合することにより、新しい局所的モデルを得る。
最後に,提案したXPFLフレームワークの有効性をシミュレーションにより検証した。
論文 参考訳(メタデータ) (2024-10-11T08:58:05Z) - Incentive Mechanism Design for Unbiased Federated Learning with
Randomized Client Participation [31.2017942327673]
本稿では,ランダムなクライアント参加を伴うフェデレーション学習(FL)のためのゲーム理論インセンティブ機構を提案する。
我々は,サーバのモデル性能向上とクライアントの利益向上を両立させることを実証した。
論文 参考訳(メタデータ) (2023-04-17T04:05:57Z) - Online Data Selection for Federated Learning with Limited Storage [53.46789303416799]
ネットワークデバイス間での分散機械学習を実現するために、フェデレートラーニング(FL)が提案されている。
デバイス上のストレージがFLの性能に与える影響はまだ調査されていない。
本研究では,デバイス上のストレージを限定したFLのオンラインデータ選択について検討する。
論文 参考訳(メタデータ) (2022-09-01T03:27:33Z) - A Survey on Participant Selection for Federated Learning in Mobile
Networks [47.88372677863646]
Federated Learning(FL)は、プライベートデータセットをプライバシ保護の方法で使用する、効率的な分散機械学習パラダイムである。
モバイルネットワークにおける通信帯域が限られており、不安定なデバイスが利用できるため、各ラウンドで選択できる端末はごくわずかである。
論文 参考訳(メタデータ) (2022-07-08T04:22:48Z) - FLAME: Federated Learning Across Multi-device Environments [9.810211000961647]
Federated Learning (FL)は、マシンラーニングモデルの分散トレーニングを可能にし、ユーザデバイス上の個人情報をプライベートに保持する。
ユーザ中心のFLAME学習手法であるFLAMEを提案する。
その結果,FLAMEはF-1スコアが4.8~33.8%,エネルギー効率が1.02~2.86倍,収束速度が2.02倍に向上した。
論文 参考訳(メタデータ) (2022-02-17T22:23:56Z) - Incentive Mechanisms for Federated Learning: From Economic and Game
Theoretic Perspective [42.50367925564069]
フェデレートラーニング(FL)は、所有者の生データを公開せずに、大規模機械学習(ML)モデルをトレーニングする大きな可能性を示している。
FLでは、データ所有者は、ローカルデータに基づいてMLモデルをトレーニングすることができ、モデルの所有者に生データではなくモデル更新を送信してアグリゲーションを行うことができる。
モデル精度とトレーニング完了時間の観点から学習性能を向上させるためには,十分な参加者を募集することが不可欠である。
論文 参考訳(メタデータ) (2021-11-20T07:22:14Z) - Mobility-Aware Cluster Federated Learning in Hierarchical Wireless
Networks [81.83990083088345]
我々は,無線ネットワークにおける階層型フェデレーション学習(HFL)アルゴリズムを特徴付ける理論モデルを開発した。
分析の結果,HFLの学習性能は,ハイモービル利用者の学習能力が著しく低下していることが判明した。
これらの問題を回避するため,我々はMACFLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-08-20T10:46:58Z) - A Contract Theory based Incentive Mechanism for Federated Learning [52.24418084256517]
フェデレートラーニング(FL)は、データプライバシ保護機械学習パラダイムとして機能し、分散クライアントによってトレーニングされた協調モデルを実現する。
FLタスクを達成するために、タスクパブリッシャはFLサーバに金銭的なインセンティブを支払う必要があり、FLサーバはFLクライアントにタスクをオフロードする。
タスクがクライアントによってプライベートにトレーニングされているという事実から、FLクライアントに対して適切なインセンティブを設計することは困難である。
論文 参考訳(メタデータ) (2021-08-12T07:30:42Z) - Federated Robustness Propagation: Sharing Adversarial Robustness in
Federated Learning [98.05061014090913]
フェデレートラーニング(FL)は、生データを共有することなく、参加するユーザのセットから学習する、人気のある分散ラーニングスキーマとして登場した。
敵対的トレーニング(AT)は集中学習のための健全なソリューションを提供する。
既存のFL技術では,非IDユーザ間の対向的ロバスト性を効果的に広めることができないことを示す。
本稿では, バッチ正規化統計量を用いてロバスト性を伝達する, 単純かつ効果的な伝搬法を提案する。
論文 参考訳(メタデータ) (2021-06-18T15:52:33Z) - Trading Data For Learning: Incentive Mechanism For On-Device Federated
Learning [25.368195601622688]
フェデレートラーニング(Federated Learning)とは、さまざまなデバイスに分散したグローバルモデルのトレーニングの概念である。
この設定では、ユーザのデバイスが自身のデータ上で計算を行い、その結果をクラウドサーバと共有し、グローバルモデルを更新します。
ユーザは、フェデレートされたモデルトレーニングプロセス中に、ローカルデータのプライバシリークに悩まされる。
本稿では、信頼性の高いデータを提供する可能性の高いユーザを選択し、プライバシリークのコストを補償する効果的なインセンティブメカニズムを提案する。
論文 参考訳(メタデータ) (2020-09-11T18:37:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。