論文の概要: Age of Information in Federated Learning over Wireless Networks
- arxiv url: http://arxiv.org/abs/2209.06623v1
- Date: Wed, 14 Sep 2022 13:20:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-15 13:43:51.656625
- Title: Age of Information in Federated Learning over Wireless Networks
- Title(参考訳): 無線ネットワークを用いた連合学習における情報化時代
- Authors: Kaidi Wang, Yi Ma, Mahdi Boloursaz Mashhadi, Chuan Heng Foh, Rahim
Tafazolli and Zhi Ding
- Abstract要約: 各通信ラウンドでは、装置のサブセットが選択され、限られた時間とエネルギーでアグリゲーションに参加する。
収束時間を最小化するために、Stackelbergゲームベースのフレームワークでは、グローバルな損失とレイテンシが共同で検討されている。
- 参考スコア(独自算出の注目度): 58.98720501937935
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, federated learning (FL) over wireless networks is
investigated. In each communication round, a subset of devices is selected to
participate in the aggregation with limited time and energy. In order to
minimize the convergence time, global loss and latency are jointly considered
in a Stackelberg game based framework. Specifically, age of information (AoI)
based device selection is considered at leader-level as a global loss
minimization problem, while sub-channel assignment, computational resource
allocation, and power allocation are considered at follower-level as a latency
minimization problem. By dividing the follower-level problem into two
sub-problems, the best response of the follower is obtained by a monotonic
optimization based resource allocation algorithm and a matching based
sub-channel assignment algorithm. By deriving the upper bound of convergence
rate, the leader-level problem is reformulated, and then a list based device
selection algorithm is proposed to achieve Stackelberg equilibrium. Simulation
results indicate that the proposed device selection scheme outperforms other
schemes in terms of the global loss, and the developed algorithms can
significantly decrease the time consumption of computation and communication.
- Abstract(参考訳): 本稿では,無線ネットワーク上でのフェデレーション学習(fl)について検討する。
各通信ラウンドでは、装置のサブセットが選択され、限られた時間とエネルギーでアグリゲーションに参加する。
収束時間を最小化するために、グローバルロスとレイテンシをstackelbergゲームベースのフレームワークで共同で検討する。
具体的には,情報化時代(aoi)に基づくデバイス選択を,グローバル損失最小化問題としてリーダレベル,サブチャネル割り当て,計算資源割り当て,電力割り当てを,レイテンシ最小化問題としてフォロワーレベルとする。
従者レベルの問題を2つのサブ問題に分割することにより、一調最適化に基づくリソース割当アルゴリズムとマッチングベースのサブチャネル割当アルゴリズムにより、従者のベストレスポンスを得る。
収束率の上限を導出することにより、リーダーレベルの問題を再構成し、スタックルバーグ平衡を達成するためにリストベースのデバイス選択アルゴリズムを提案する。
シミュレーションの結果,提案手法はグローバルな損失の点で他の手法よりも優れており,開発したアルゴリズムは計算と通信の時間消費を大幅に削減できることがわかった。
関連論文リスト
- FLARE: A New Federated Learning Framework with Adjustable Learning Rates over Resource-Constrained Wireless Networks [20.048146776405005]
ワイヤレス・フェデレート・ラーニング(WFL)は、データ分散、計算能力、チャネル条件などにおいて不均一性に悩まされている。
本稿では,Federated Learning Adjusted lean ratE (FLR ratE)による新しいアイデアを提案する。
FLAREが一貫してベースラインを上回っている実験。
論文 参考訳(メタデータ) (2024-04-23T07:48:17Z) - Client Orchestration and Cost-Efficient Joint Optimization for
NOMA-Enabled Hierarchical Federated Learning [55.49099125128281]
半同期クラウドモデルアグリゲーションの下で非直交多重アクセス(NOMA)を実現するHFLシステムを提案する。
提案手法は,HFLの性能改善と総コスト削減に関するベンチマークよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-11-03T13:34:44Z) - Delay-Aware Hierarchical Federated Learning [7.292078085289465]
本稿では,分散機械学習(ML)モデルの学習効率を向上させるために,遅延認識型階層型学習(DFL)を提案する。
グローバル同期の間、クラウドサーバは、凸制御アルゴリズムを使用して、ローカルモデルを時代遅れのグローバルモデルと統合する。
数値評価により、DFLの高速グローバルモデル、収束資源の削減、通信遅延に対する評価において優れた性能を示す。
論文 参考訳(メタデータ) (2023-03-22T09:23:29Z) - Semi-Synchronous Personalized Federated Learning over Mobile Edge
Networks [88.50555581186799]
我々は,モバイルエッジネットワーク上での半同期パーソナライズフェデレーション(PerFedS$2$)と呼ばれる半同期PFLアルゴリズムを提案する。
我々は、グローバルラウンド当たりの参加者数とラウンド数の観点から、PerFedS2の収束率の上限を導出する。
PerFedS2はトレーニング時間を節約し、トレーニング損失の収束を保証する。
論文 参考訳(メタデータ) (2022-09-27T02:12:43Z) - Predictive GAN-powered Multi-Objective Optimization for Hybrid Federated
Split Learning [56.125720497163684]
無線ネットワークにおけるハイブリッド・フェデレーション・スプリット・ラーニング・フレームワークを提案する。
ラベル共有のないモデル分割のための並列計算方式を設計し,提案方式が収束速度に与える影響を理論的に解析する。
論文 参考訳(メタデータ) (2022-09-02T10:29:56Z) - Time-triggered Federated Learning over Wireless Networks [48.389824560183776]
無線ネットワーク上での時系列FLアルゴリズム(TT-Fed)を提案する。
提案したTT-Fedアルゴリズムは, それぞれ最大12.5%, 5%の収束試験精度を向上する。
論文 参考訳(メタデータ) (2022-04-26T16:37:29Z) - Accelerating Federated Edge Learning via Topology Optimization [41.830942005165625]
フェデレートエッジラーニング(FEEL)は、プライバシー保護の分散ラーニングを実現するための有望なパラダイムとして考えられている。
ストラグラー装置の存在により、過度の学習時間を消費する。
フェデレーション学習における不均一性問題に対処するために,新しいトポロジ最適化フェデレーション・エッジ・ラーニング(TOFEL)手法を提案する。
論文 参考訳(メタデータ) (2022-04-01T14:49:55Z) - Over-the-Air Federated Learning via Second-Order Optimization [37.594140209854906]
フェデレートラーニング(FL)は、無線ネットワーク上でのタスク指向のデータトラフィックを、限られた無線リソースによって引き起こす可能性がある。
本稿では,通信ラウンドを同時に削減し,低レイテンシなグローバルモデルアグリゲーションを実現するために,空対2次フェデレーション最適化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-03-29T12:39:23Z) - Unit-Modulus Wireless Federated Learning Via Penalty Alternating
Minimization [64.76619508293966]
Wireless Federated Learning(FL)は、分散データセットから無線通信を介してグローバルパラメトリックモデルをトレーニングする、新興機械学習パラダイムである。
本稿では、ローカルモデルパラメータをアップロードし、無線通信を介してグローバルモデルパラメータを算出する無線FLフレームワークを提案する。
論文 参考訳(メタデータ) (2021-08-31T08:19:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。