論文の概要: Learning-Based Client Selection for Federated Learning Services Over
Wireless Networks with Constrained Monetary Budgets
- arxiv url: http://arxiv.org/abs/2208.04322v1
- Date: Mon, 8 Aug 2022 06:00:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-10 12:08:58.363884
- Title: Learning-Based Client Selection for Federated Learning Services Over
Wireless Networks with Constrained Monetary Budgets
- Title(参考訳): 制約付き通貨予算を伴う無線ネットワーク上でのフェデレーション学習サービスのための学習ベースクライアント選択
- Authors: Zhipeng Cheng, Xuwei Fan, Minghui Liwang, Ning Chen, Xianbin Wang
- Abstract要約: 無線ネットワークにおけるマルチフェデレート学習(FL)サービスにおけるデータ品質を考慮した動的クライアント選択問題について検討する。
統合クライアント選択と支払い動作の最適化のために,マルチエージェントハイブリッド深層強化学習に基づくアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 8.285974405319735
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We investigate a data quality-aware dynamic client selection problem for
multiple federated learning (FL) services in a wireless network, where each
client has dynamic datasets for the simultaneous training of multiple FL
services and each FL service demander has to pay for the clients with
constrained monetary budgets. The problem is formalized as a non-cooperative
Markov game over the training rounds. A multi-agent hybrid deep reinforcement
learning-based algorithm is proposed to optimize the joint client selection and
payment actions, while avoiding action conflicts. Simulation results indicate
that our proposed algorithm can significantly improve the training performance.
- Abstract(参考訳): 本研究では,複数のflサービスの同時トレーニングのための動的データセットを各クライアントに有する無線ネットワークにおける,複数の連合学習(fl)サービスに対するデータ品質対応動的クライアント選択問題について検討する。
この問題は、トレーニングラウンドにおける非協調マルコフゲームとして形式化されている。
アクションコンフリクトを回避しつつ、クライアント選択と支払い動作を最適化するために、マルチエージェントハイブリッド深層強化学習ベースアルゴリズムを提案する。
シミュレーションの結果,提案手法はトレーニング性能を大幅に向上できることがわかった。
関連論文リスト
- FedCAda: Adaptive Client-Side Optimization for Accelerated and Stable Federated Learning [57.38427653043984]
フェデレートラーニング(FL)は、分散クライアント間の機械学習モデルの協調トレーニングにおいて、顕著なアプローチとして登場した。
我々は,この課題に対処するために設計された,革新的なクライアント適応アルゴリズムであるFedCAdaを紹介する。
我々はFedCAdaが適応性、収束性、安定性、全体的な性能の点で最先端の手法より優れていることを実証する。
論文 参考訳(メタデータ) (2024-05-20T06:12:33Z) - Fair Concurrent Training of Multiple Models in Federated Learning [32.74516106486226]
フェデレートラーニング(FL)は、複数のクライアント間で協調学習を可能にする。
近年のFLアプリケーションは、複数のFLタスクを同時にトレーニングする必要がある。
現在のMMFLアルゴリズムは、単純平均ベースのクライアントタスク割り当てスキームを使用している。
本稿では,各トレーニングラウンドにおけるタスクに動的にクライアントを割り当てる難易度認識アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-04-22T02:41:10Z) - FedLALR: Client-Specific Adaptive Learning Rates Achieve Linear Speedup
for Non-IID Data [54.81695390763957]
フェデレートラーニング(Federated Learning)は、分散機械学習の手法である。
我々は,AMSGradの異種局所変種であるFedLALRを提案し,各クライアントが学習率を調整する。
クライアントが指定した自動調整型学習率スケジューリングが,クライアント数に対して収束し,線形高速化を実現することを示す。
論文 参考訳(メタデータ) (2023-09-18T12:35:05Z) - Effectively Heterogeneous Federated Learning: A Pairing and Split
Learning Based Approach [16.093068118849246]
本稿では,クライアントと異なる計算資源をペアリングする,新しい分割フェデレーション学習(SFL)フレームワークを提案する。
グラフエッジ選択問題として,学習遅延の最適化を再構築し,グレディアルゴリズムを提案する。
シミュレーションの結果,提案手法はFLトレーニング速度を大幅に向上し,高い性能を実現することができることがわかった。
論文 参考訳(メタデータ) (2023-08-26T11:10:54Z) - Price-Discrimination Game for Distributed Resource Management in Federated Learning [3.724337025141794]
FedAvgのようなバニラ連合学習(FL)では、パラメータサーバ(PS)と複数の分散クライアントが典型的な買い手市場を形成する。
本稿では、異なるクライアントに対して同じサービス価格を提供するのではなく、異なるクライアントが提供するサービスの価格を区別することを提案する。
論文 参考訳(メタデータ) (2023-08-26T10:09:46Z) - Addressing Client Drift in Federated Continual Learning with Adaptive
Optimization [10.303676184878896]
本稿では,NetTailorを連続学習候補として活用することにより,FCL(Federated Continual Learning)を実現するための枠組みを概説する。
適応型フェデレーション最適化は,クライアントドリフトの悪影響を低減し,CIFAR100,MiniImagenet,Deathlonベンチマーク上での有効性を示す。
論文 参考訳(メタデータ) (2022-03-24T20:00:03Z) - On the Convergence of Clustered Federated Learning [57.934295064030636]
統合学習システムでは、例えばモバイルデバイスや組織参加者といったクライアントは通常、個人の好みや行動パターンが異なる。
本稿では,クライアントグループと各クライアントを統一最適化フレームワークで活用する,新しい重み付きクライアントベースクラスタリングFLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-02-13T02:39:19Z) - Dynamic Attention-based Communication-Efficient Federated Learning [85.18941440826309]
フェデレートラーニング(FL)は、グローバル機械学習モデルをトレーニングするためのソリューションを提供する。
FLは、クライアントデータの分散が非IIDであるときに性能劣化に悩まされる。
本稿では,この劣化に対処するために,新しい適応トレーニングアルゴリズムであるtextttAdaFL$を提案する。
論文 参考訳(メタデータ) (2021-08-12T14:18:05Z) - A Contract Theory based Incentive Mechanism for Federated Learning [52.24418084256517]
フェデレートラーニング(FL)は、データプライバシ保護機械学習パラダイムとして機能し、分散クライアントによってトレーニングされた協調モデルを実現する。
FLタスクを達成するために、タスクパブリッシャはFLサーバに金銭的なインセンティブを支払う必要があり、FLサーバはFLクライアントにタスクをオフロードする。
タスクがクライアントによってプライベートにトレーニングされているという事実から、FLクライアントに対して適切なインセンティブを設計することは困難である。
論文 参考訳(メタデータ) (2021-08-12T07:30:42Z) - Low-Latency Federated Learning over Wireless Channels with Differential
Privacy [142.5983499872664]
フェデレートラーニング(FL)では、モデルトレーニングはクライアントに分散し、ローカルモデルは中央サーバによって集約される。
本稿では,各クライアントの差分プライバシ(DP)要件だけでなく,全体としてのトレーニング性能に制約された無線チャネル上でのFLトレーニング遅延を最小限に抑えることを目的とする。
論文 参考訳(メタデータ) (2021-06-20T13:51:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。