論文の概要: Mobility Accelerates Learning: Convergence Analysis on Hierarchical
Federated Learning in Vehicular Networks
- arxiv url: http://arxiv.org/abs/2401.09656v1
- Date: Thu, 18 Jan 2024 00:09:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-01-19 18:08:58.483530
- Title: Mobility Accelerates Learning: Convergence Analysis on Hierarchical
Federated Learning in Vehicular Networks
- Title(参考訳): 学習を加速するモビリティ: ネットワークにおける階層型フェデレーション学習の収束解析
- Authors: Tan Chen, Jintao Yan, Yuxuan Sun, Sheng Zhou, Deniz G\"und\"uz,
Zhisheng Niu
- Abstract要約: 我々は,エッジデータを融合し,エッジモデルをシャッフルすることで,移動が収束速度に影響を与えることを示す。
モビリティは、畳み込みニューラルネットワークのトレーニングにおいて、HFLのモデル精度を最大15.1%向上させる。
- 参考スコア(独自算出の注目度): 15.282996586821415
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Hierarchical federated learning (HFL) enables distributed training of models
across multiple devices with the help of several edge servers and a cloud edge
server in a privacy-preserving manner. In this paper, we consider HFL with
highly mobile devices, mainly targeting at vehicular networks. Through
convergence analysis, we show that mobility influences the convergence speed by
both fusing the edge data and shuffling the edge models. While mobility is
usually considered as a challenge from the perspective of communication, we
prove that it increases the convergence speed of HFL with edge-level
heterogeneous data, since more diverse data can be incorporated. Furthermore,
we demonstrate that a higher speed leads to faster convergence, since it
accelerates the fusion of data. Simulation results show that mobility increases
the model accuracy of HFL by up to 15.1% when training a convolutional neural
network on the CIFAR-10 dataset.
- Abstract(参考訳): 階層的フェデレーション学習(HFL)は、複数のエッジサーバとクラウドエッジサーバの助けを借りて、複数のデバイスにまたがるモデルの分散トレーニングを可能にする。
本稿では,主に車載ネットワークをターゲットとした高モバイル機器を用いたhflについて検討する。
収束解析により、エッジデータを融合し、エッジモデルをシャッフルすることで、モビリティが収束速度に影響を与えることを示す。
モビリティは通常通信の観点からは課題と見なされるが、より多様なデータを取り込むことができるため、エッジレベルの異種データとのhflの収束速度が増加することが証明される。
さらに,高速化はデータの融合を加速するため,より高速に収束することを示す。
シミュレーションの結果,CIFAR-10データセット上で畳み込みニューラルネットワークをトレーニングすると,HFLのモデル精度が最大15.1%向上することがわかった。
関連論文リスト
- Efficient Asynchronous Federated Learning with Sparsification and
Quantization [55.6801207905772]
フェデレートラーニング(FL)は、生データを転送することなく、機械学習モデルを協調的にトレーニングするために、ますます注目を集めている。
FLは一般的に、モデルトレーニングの全プロセス中にパラメータサーバーと多数のエッジデバイスを利用する。
TEASQ-Fedは、エッジデバイスを利用して、タスクに積極的に適用することで、トレーニングプロセスに非同期に参加する。
論文 参考訳(メタデータ) (2023-12-23T07:47:07Z) - Adaptive Model Pruning and Personalization for Federated Learning over
Wireless Networks [72.59891661768177]
フェデレーション学習(FL)は、データプライバシを保護しながら、エッジデバイス間での分散学習を可能にする。
これらの課題を克服するために、部分的なモデルプルーニングとパーソナライズを備えたFLフレームワークを検討する。
このフレームワークは、学習モデルを、データ表現を学ぶためにすべてのデバイスと共有されるモデルプルーニングと、特定のデバイスのために微調整されるパーソナライズされた部分とで、グローバルな部分に分割する。
論文 参考訳(メタデータ) (2023-09-04T21:10:45Z) - Data-Heterogeneous Hierarchical Federated Learning with Mobility [20.482704508355905]
フェデレーション学習は、複数のデバイスにまたがる機械学習(ML)モデルの分散トレーニングを可能にする。
本稿では,主に車両ネットワークを対象とする移動性を持つデータヘテロジニアスHFLシナリオについて考察する。
畳み込みニューラルネットワークをトレーニングすると、モビリティがモデル精度を最大15.1%向上できることを示す。
論文 参考訳(メタデータ) (2023-06-19T04:22:18Z) - Adaptive Federated Pruning in Hierarchical Wireless Networks [69.6417645730093]
Federated Learning(FL)は、サーバがプライベートデータセットにアクセスすることなく、複数のデバイスによって更新されたモデルを集約する、プライバシ保護の分散学習フレームワークである。
本稿では,無線ネットワークにおけるHFLのモデルプルーニングを導入し,ニューラルネットワークの規模を小さくする。
提案するHFLは,モデルプルーニングを伴わないHFLと比較して学習精度が良く,通信コストが約50%削減できることを示す。
論文 参考訳(メタデータ) (2023-05-15T22:04:49Z) - Online Data Selection for Federated Learning with Limited Storage [53.46789303416799]
ネットワークデバイス間での分散機械学習を実現するために、フェデレートラーニング(FL)が提案されている。
デバイス上のストレージがFLの性能に与える影響はまだ調査されていない。
本研究では,デバイス上のストレージを限定したFLのオンラインデータ選択について検討する。
論文 参考訳(メタデータ) (2022-09-01T03:27:33Z) - Spatio-Temporal Federated Learning for Massive Wireless Edge Networks [23.389249751372393]
エッジサーバと多数のモバイルデバイス(クライアント)は、モバイルデバイスが収集した膨大なデータをエッジサーバに転送することなく、グローバルモデルを共同で学習する。
提案手法は,STFLに参加する予定の様々なモバイルデバイスからの学習更新の空間的および時間的相関を利用している。
収束性能を用いてSTFLの学習能力を研究するために,STFLの分析フレームワークを提案する。
論文 参考訳(メタデータ) (2021-10-27T16:46:45Z) - Mobility-Aware Cluster Federated Learning in Hierarchical Wireless
Networks [81.83990083088345]
我々は,無線ネットワークにおける階層型フェデレーション学習(HFL)アルゴリズムを特徴付ける理論モデルを開発した。
分析の結果,HFLの学習性能は,ハイモービル利用者の学習能力が著しく低下していることが判明した。
これらの問題を回避するため,我々はMACFLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-08-20T10:46:58Z) - Accelerating Federated Learning over Reliability-Agnostic Clients in
Mobile Edge Computing Systems [15.923599062148135]
フェデレーション学習は、AIアプリケーションを促進するための、将来性のあるプライバシ保護アプローチとして登場した。
MECアーキテクチャと統合された場合、FLの効率性と効率を最適化することは依然として大きな課題である。
本稿では,MECアーキテクチャのために,HybridFLと呼ばれる多層フェデレート学習プロトコルを設計する。
論文 参考訳(メタデータ) (2020-07-28T17:35:39Z) - Fast-Convergent Federated Learning [82.32029953209542]
フェデレーション学習は、モバイルデバイスの現代的なネットワークを介して機械学習タスクを分散するための、有望なソリューションである。
本稿では,FOLBと呼ばれる高速収束型フェデレーション学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-07-26T14:37:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。