論文の概要: Hierarchical Personalized Federated Learning Over Massive Mobile Edge
Computing Networks
- arxiv url: http://arxiv.org/abs/2303.10580v1
- Date: Sun, 19 Mar 2023 06:00:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-21 18:32:59.618403
- Title: Hierarchical Personalized Federated Learning Over Massive Mobile Edge
Computing Networks
- Title(参考訳): 大規模モバイルエッジコンピューティングネットワーク上での階層型パーソナライズされた連合学習
- Authors: Chaoqun You, Kun Guo, Howard H. Yang, Tony Q. S. Quek
- Abstract要約: 大規模MECネットワーク上でPFLをデプロイするアルゴリズムである階層型PFL(HPFL)を提案する。
HPFLは、最適帯域割り当てを共同で決定しながら、トレーニング損失最小化とラウンドレイテンシ最小化の目的を組み合わせる。
- 参考スコア(独自算出の注目度): 95.39148209543175
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Personalized Federated Learning (PFL) is a new Federated Learning (FL)
paradigm, particularly tackling the heterogeneity issues brought by various
mobile user equipments (UEs) in mobile edge computing (MEC) networks. However,
due to the ever-increasing number of UEs and the complicated administrative
work it brings, it is desirable to switch the PFL algorithm from its
conventional two-layer framework to a multiple-layer one. In this paper, we
propose hierarchical PFL (HPFL), an algorithm for deploying PFL over massive
MEC networks. The UEs in HPFL are divided into multiple clusters, and the UEs
in each cluster forward their local updates to the edge server (ES)
synchronously for edge model aggregation, while the ESs forward their edge
models to the cloud server semi-asynchronously for global model aggregation.
The above training manner leads to a tradeoff between the training loss in each
round and the round latency. HPFL combines the objectives of training loss
minimization and round latency minimization while jointly determining the
optimal bandwidth allocation as well as the ES scheduling policy in the
hierarchical learning framework. Extensive experiments verify that HPFL not
only guarantees convergence in hierarchical aggregation frameworks but also has
advantages in round training loss maximization and round latency minimization.
- Abstract(参考訳): パーソナライズド・フェデレーション・ラーニング(PFL)は新たなフェデレーション・ラーニング(FL)パラダイムであり、特にモバイルエッジ・コンピューティング(MEC)ネットワークにおける様々なモバイル・ユーザー・デバイス(UE)がもたらす不均一性問題に対処する。
しかし、UEの増大とそれがもたらす複雑な管理作業により、PFLアルゴリズムを従来の2層フレームワークから複数層フレームワークに切り替えることが望ましい。
本稿では,大規模なMECネットワーク上にPFLをデプロイするアルゴリズムである階層型PFL(HPFL)を提案する。
hpflのuesは複数のクラスタに分割され、各クラスタのuesはエッジモデルアグリゲーションのためにローカルアップデートをエッジサーバ(es)に同期させ、essはエッジモデルを半同期的にクラウドサーバに転送してグローバルモデルアグリゲーションを行う。
上記のトレーニング方法は、各ラウンドのトレーニング損失とラウンドレイテンシとのトレードオフにつながる。
hpflは、トレーニング損失の最小化とラウンドレイテンシの最小化という目標を組み合わせて、階層的学習フレームワークにおける最適な帯域割り当てとesスケジューリングポリシーを共同で決定する。
HPFLは階層的な集約フレームワークの収束を保証するだけでなく、ラウンドトレーニング損失の最大化やラウンドレイテンシの最小化にも利点がある。
関連論文リスト
- Robust Model Aggregation for Heterogeneous Federated Learning: Analysis and Optimizations [35.58487905412915]
異種システムのための時間駆動型SFL(T-SFL)フレームワークを提案する。
T-SFLの学習性能を評価するため,大域的損失関数の上限を提供する。
本研究では,所定のしきい値以下に反復回数が減少するクライアントから局所モデルを除去する識別モデル選択アルゴリズムを開発する。
論文 参考訳(メタデータ) (2024-05-11T11:55:26Z) - AdaptSFL: Adaptive Split Federated Learning in Resource-constrained Edge Networks [15.195798715517315]
Split Federated Learning(SFL)は、モデルのパーティショニングを通じて、最初のトレーニングワークロードをサーバにfloadする、有望なソリューションである。
本稿では,資源制約付きエッジコンピューティングシステムにおいて,SFLを高速化するための新しいリソース適応型SFLフレームワークであるAdaptSFLを提案する。
論文 参考訳(メタデータ) (2024-03-19T19:05:24Z) - Client Orchestration and Cost-Efficient Joint Optimization for
NOMA-Enabled Hierarchical Federated Learning [55.49099125128281]
半同期クラウドモデルアグリゲーションの下で非直交多重アクセス(NOMA)を実現するHFLシステムを提案する。
提案手法は,HFLの性能改善と総コスト削減に関するベンチマークよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-11-03T13:34:44Z) - Semi-Federated Learning: Convergence Analysis and Optimization of A
Hybrid Learning Framework [70.83511997272457]
本稿では,ベースステーション(BS)とデバイスの両方を活用するセミフェデレーション学習(SemiFL)パラダイムを提案し,中央集権学習(CL)とFLのハイブリッド実装を提案する。
我々はこの難解な問題を解くための2段階のアルゴリズムを提案し、ビームフォーマに閉形式解を提供する。
論文 参考訳(メタデータ) (2023-10-04T03:32:39Z) - Adaptive Federated Pruning in Hierarchical Wireless Networks [69.6417645730093]
Federated Learning(FL)は、サーバがプライベートデータセットにアクセスすることなく、複数のデバイスによって更新されたモデルを集約する、プライバシ保護の分散学習フレームワークである。
本稿では,無線ネットワークにおけるHFLのモデルプルーニングを導入し,ニューラルネットワークの規模を小さくする。
提案するHFLは,モデルプルーニングを伴わないHFLと比較して学習精度が良く,通信コストが約50%削減できることを示す。
論文 参考訳(メタデータ) (2023-05-15T22:04:49Z) - Delay-Aware Hierarchical Federated Learning [7.292078085289465]
本稿では,分散機械学習(ML)モデルの学習効率を向上させるために,遅延認識型階層型学習(DFL)を提案する。
グローバル同期の間、クラウドサーバは、凸制御アルゴリズムを使用して、ローカルモデルを時代遅れのグローバルモデルと統合する。
数値評価により、DFLの高速グローバルモデル、収束資源の削減、通信遅延に対する評価において優れた性能を示す。
論文 参考訳(メタデータ) (2023-03-22T09:23:29Z) - Semi-Synchronous Personalized Federated Learning over Mobile Edge
Networks [88.50555581186799]
我々は,モバイルエッジネットワーク上での半同期パーソナライズフェデレーション(PerFedS$2$)と呼ばれる半同期PFLアルゴリズムを提案する。
我々は、グローバルラウンド当たりの参加者数とラウンド数の観点から、PerFedS2の収束率の上限を導出する。
PerFedS2はトレーニング時間を節約し、トレーニング損失の収束を保証する。
論文 参考訳(メタデータ) (2022-09-27T02:12:43Z) - Achieving Personalized Federated Learning with Sparse Local Models [75.76854544460981]
フェデレートラーニング(FL)は異種分散データに対して脆弱である。
この問題に対処するため、個人ごとに専用のローカルモデルを作成するためにパーソナライズされたFL(PFL)が提案された。
既存のPFLソリューションは、異なるモデルアーキテクチャに対する不満足な一般化を示すか、あるいは膨大な余分な計算とメモリを犠牲にするかのどちらかである。
我々は、パーソナライズされたスパースマスクを用いて、エッジ上のスパースローカルモデルをカスタマイズする新しいPFLスキームFedSpaを提案する。
論文 参考訳(メタデータ) (2022-01-27T08:43:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。