論文の概要: Bandwidth Allocation for Multiple Federated Learning Services in
Wireless Edge Networks
- arxiv url: http://arxiv.org/abs/2101.03627v1
- Date: Sun, 10 Jan 2021 20:57:13 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-08 08:19:49.411646
- Title: Bandwidth Allocation for Multiple Federated Learning Services in
Wireless Edge Networks
- Title(参考訳): 無線エッジネットワークにおける複数フェデレート学習サービスの帯域割り当て
- Authors: Jie Xu, Heqiang Wang, Lixing Chen
- Abstract要約: 本稿では,textitmultiple flサービスが無線ネットワークに共存し,共通無線資源を共有するフェデレーション学習システムについて検討する。
既存の文献では、複数の同時flサービスに対するワイヤレスリソース割り当ての空白を埋める。
利己的なflサービスプロバイダにとって、新しいオークションスキームは、flサービスオーナーを入札者、ネットワークプロバイダを競売人として設計されている。
- 参考スコア(独自算出の注目度): 21.226093856511994
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper studies a federated learning (FL) system, where \textit{multiple}
FL services co-exist in a wireless network and share common wireless resources.
It fills the void of wireless resource allocation for multiple simultaneous FL
services in the existing literature. Our method designs a two-level resource
allocation framework comprising \emph{intra-service} resource allocation and
\emph{inter-service} resource allocation. The intra-service resource allocation
problem aims to minimize the length of FL rounds by optimizing the bandwidth
allocation among the clients of each FL service. Based on this, an
inter-service resource allocation problem is further considered, which
distributes bandwidth resources among multiple simultaneous FL services. We
consider both cooperative and selfish providers of the FL services. For
cooperative FL service providers, we design a distributed bandwidth allocation
algorithm to optimize the overall performance of multiple FL services,
meanwhile cater to the fairness among FL services and the privacy of clients.
For selfish FL service providers, a new auction scheme is designed with the FL
service owners as the bidders and the network provider as the auctioneer. The
designed auction scheme strikes a balance between the overall FL performance
and fairness. Our simulation results show that the proposed algorithms
outperform other benchmarks under various network conditions.
- Abstract(参考訳): 本稿では,無線ネットワークに共存し,共通の無線リソースを共有する,フェデレートラーニング(FL)システムについて検討する。
既存の文献では、複数の同時flサービスに対するワイヤレスリソース割り当ての空白を埋める。
本手法は, \emph{intra-service} リソースアロケーションと \emph{inter-service} リソースアロケーションからなる2レベルリソースアロケーションフレームワークを設計する。
サービス内リソース割り当て問題は、各FLサービスのクライアント間の帯域割り当てを最適化することにより、FLラウンドの長さを最小化することを目的としている。
これに基づいて、複数の同時flサービス間で帯域幅リソースを分配するサービス間リソース割り当て問題をさらに検討する。
FLサービスの協力的・利己的な提供者について検討する。
協調型flサービスプロバイダに対して,複数のflサービス全体のパフォーマンスを最適化する分散帯域割り当てアルゴリズムを設計し,その一方で,flサービス間の公平性とクライアントのプライバシを満足させる。
利己的なflサービスプロバイダにとって、新しいオークションスキームは、flサービスオーナーを入札者、ネットワークプロバイダを競売人として設計されている。
デザインされたオークションスキームは、全体のFL性能と公正さのバランスをとる。
シミュレーションの結果,提案アルゴリズムは様々なネットワーク条件下で他のベンチマークより優れていることがわかった。
関連論文リスト
- Venn: Resource Management Across Federated Learning Jobs [26.388345708301603]
近年、フェデレーテッド・ラーニング(FL)は、機械学習(ML)と分散エッジデバイス間のデータサイエンスのための有望なアプローチとして出現している。
FLの普及に伴い、複数のFLジョブ間のリソース競合も増大している。
FLのリソースマネージャであるVennは、多くのFLジョブの中で、短命で異質なデバイスを効率的にスケジュールする。
論文 参考訳(メタデータ) (2023-12-13T17:13:08Z) - Client Orchestration and Cost-Efficient Joint Optimization for
NOMA-Enabled Hierarchical Federated Learning [55.49099125128281]
半同期クラウドモデルアグリゲーションの下で非直交多重アクセス(NOMA)を実現するHFLシステムを提案する。
提案手法は,HFLの性能改善と総コスト削減に関するベンチマークよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-11-03T13:34:44Z) - Price-Discrimination Game for Distributed Resource Management in Federated Learning [3.724337025141794]
FedAvgのようなバニラ連合学習(FL)では、パラメータサーバ(PS)と複数の分散クライアントが典型的な買い手市場を形成する。
本稿では、異なるクライアントに対して同じサービス価格を提供するのではなく、異なるクライアントが提供するサービスの価格を区別することを提案する。
論文 参考訳(メタデータ) (2023-08-26T10:09:46Z) - Joint Age-based Client Selection and Resource Allocation for
Communication-Efficient Federated Learning over NOMA Networks [8.030674576024952]
FL(Federated Learning)では、分散クライアントは、自身のトレーニングデータをローカルに保持しながら、共有グローバルモデルを共同でトレーニングすることができる。
本稿では,非直交多重アクセス(NOMA)を利用した無線ネットワーク上でのFLにおける各ラウンドの総時間消費を最小化することを目的とした,クライアント選択とリソース割り当ての協調最適化問題を定式化する。
さらに、各ラウンドで選択されていないクライアントのFLモデルを予測し、FL性能をさらに向上するために、サーバサイド人工知能ニューラルネットワーク(ANN)を提案する。
論文 参考訳(メタデータ) (2023-04-18T13:58:16Z) - Synergies Between Federated Learning and O-RAN: Towards an Elastic
Virtualized Architecture for Multiple Distributed Machine Learning Services [7.477830365234231]
我々は、動的マルチサービスFL(DMS-FL)と呼ばれる、NextGネットワーク上の汎用FLパラダイムを導入する。
弾性FL(EV-FL)と呼ばれる新しい分散MLアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-04-14T19:21:42Z) - Automated Federated Learning in Mobile Edge Networks -- Fast Adaptation
and Convergence [83.58839320635956]
フェデレートラーニング(FL)は、モバイルエッジネットワークで機械学習モデルを分散的にトレーニングするために使用することができる。
最近のFLは、モデルに依存しないメタラーニング(MAML)フレームワークで解釈されている。
本稿は,MAMLがFLにもたらすメリットと,モバイルエッジネットワーク上でのメリットの最大化について論じる。
論文 参考訳(メタデータ) (2023-03-23T02:42:10Z) - Predictive GAN-powered Multi-Objective Optimization for Hybrid Federated
Split Learning [56.125720497163684]
無線ネットワークにおけるハイブリッド・フェデレーション・スプリット・ラーニング・フレームワークを提案する。
ラベル共有のないモデル分割のための並列計算方式を設計し,提案方式が収束速度に与える影響を理論的に解析する。
論文 参考訳(メタデータ) (2022-09-02T10:29:56Z) - SlimFL: Federated Learning with Superposition Coding over Slimmable
Neural Networks [56.68149211499535]
フェデレートラーニング(FL)は、デバイスの分散コンピューティング機能を活用した効率的なコミュニケーションとコンピューティングのための重要な実現手段である。
本稿では、FLと幅調整可能なスリムブルニューラルネットワーク(SNN)を統合した新しい学習フレームワークを提案する。
局所モデル更新のためのグローバルモデル集約と重ね合わせ訓練(ST)に重ね合わせ符号化(SC)を併用した通信およびエネルギー効率の高いSNNベースFL(SlimFL)を提案する。
論文 参考訳(メタデータ) (2022-03-26T15:06:13Z) - Federated Learning over Wireless IoT Networks with Optimized
Communication and Resources [98.18365881575805]
協調学習技術のパラダイムとしてのフェデレートラーニング(FL)は研究の注目を集めている。
無線システム上での高速応答および高精度FLスキームの検証が重要である。
提案する通信効率のよいフェデレーション学習フレームワークは,強い線形速度で収束することを示す。
論文 参考訳(メタデータ) (2021-10-22T13:25:57Z) - Resource Rationing for Wireless Federated Learning: Concept, Benefits,
and Challenges [23.49563400899498]
我々は、無線連合学習(FL)のための新たな資源割当フレームワークを提唱する。
flのための既存のリソース割当方法とは異なり、リソース割当ては学習ラウンド間のリソースのバランスにフォーカスする。
この新しいフレームワークは、flの収束を最適化するために既存のリソース割り当てスキームとシームレスに統合することができる。
論文 参考訳(メタデータ) (2021-04-14T17:16:33Z) - Convergence Time Optimization for Federated Learning over Wireless
Networks [160.82696473996566]
無線ユーザが(ローカル収集データを用いて訓練した)ローカルFLモデルを基地局(BS)に送信する無線ネットワークを考える。
中央コントローラとして機能するBSは、受信したローカルFLモデルを使用してグローバルFLモデルを生成し、それを全ユーザにブロードキャストする。
無線ネットワークにおけるリソースブロック(RB)の数が限られているため、ローカルFLモデルパラメータをBSに送信するために選択できるのは一部のユーザのみである。
各ユーザが独自のトレーニングデータサンプルを持っているため、BSは、収束したグローバルFLモデルを生成するために、すべてのローカルユーザFLモデルを含むことを好んでいる。
論文 参考訳(メタデータ) (2020-01-22T01:55:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。