論文の概要: Distribution-Aware Mobility-Assisted Decentralized Federated Learning
- arxiv url: http://arxiv.org/abs/2505.18866v1
- Date: Sat, 24 May 2025 20:47:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-27 16:58:42.707942
- Title: Distribution-Aware Mobility-Assisted Decentralized Federated Learning
- Title(参考訳): 分散モビリティを利用した分散型フェデレーション学習
- Authors: Md Farhamdur Reza, Reza Jahani, Richeng Jin, Huaiyu Dai,
- Abstract要約: 分散連合学習(DFL)は、スケーラビリティと中央サーバからの独立性により、大きな注目を集めている。
ランダムな移動であっても、少数のモバイルクライアントを導入することで、情報フローを容易にすることで、DFLの精度を大幅に向上できることを示す。
そこで我々は,モバイルクライアントがネットワークを戦略的にナビゲートする,新しい分散対応モビリティパターンを提案する。
- 参考スコア(独自算出の注目度): 28.986426579981924
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Decentralized federated learning (DFL) has attracted significant attention due to its scalability and independence from a central server. In practice, some participating clients can be mobile, yet the impact of user mobility on DFL performance remains largely unexplored, despite its potential to facilitate communication and model convergence. In this work, we demonstrate that introducing a small fraction of mobile clients, even with random movement, can significantly improve the accuracy of DFL by facilitating information flow. To further enhance performance, we propose novel distribution-aware mobility patterns, where mobile clients strategically navigate the network, leveraging knowledge of data distributions and static client locations. The proposed moving strategies mitigate the impact of data heterogeneity and boost learning convergence. Extensive experiments validate the effectiveness of induced mobility in DFL and demonstrate the superiority of our proposed mobility patterns over random movement.
- Abstract(参考訳): 分散連合学習(DFL)は、スケーラビリティと中央サーバからの独立性により、大きな注目を集めている。
実際には、一部の参加するクライアントは移動可能であるが、ユーザモビリティがDFLのパフォーマンスに与える影響は、通信とモデル収束を促進する可能性にもかかわらず、未検討のままである。
本研究では、ランダムな移動であっても、少数のモバイルクライアントを導入することで、情報フローを容易にすることで、DFLの精度を大幅に向上させることができることを示す。
そこで本研究では,モバイルクライアントがネットワークを戦略的にナビゲートし,データ配信や静的クライアント位置の知識を活用する,新たな分散対応モビリティパターンを提案する。
提案した移動戦略は、データの不均一性の影響を緩和し、学習収束を促進する。
広汎な実験により、DFLにおける誘導モビリティの有効性を検証し、ランダムな動きよりも提案したモビリティパターンの優位性を実証した。
関連論文リスト
- MoCFL: Mobile Cluster Federated Learning Framework for Highly Dynamic Network [10.962599830266676]
非常にダイナミックなモバイルクラスタにおけるクライアントノードの頻繁な変動は、機能空間の分散とデータドリフトに大きな変化をもたらす可能性がある。
これらの問題に対処するために,モバイルクラスタ統合学習フレームワーク (MoCFL) を提案する。
MoCFLは、異なるクライアントからの局所的特徴抽出器間の類似性を定量化する親和性行列を導入することにより、特徴集約を強化する。
論文 参考訳(メタデータ) (2025-03-03T13:59:47Z) - FoMo: A Foundation Model for Mobile Traffic Forecasting with Diffusion Model [5.96737388771505]
モバイルトラフィック予測のための革新的なファンデーションモデル(FoMo)を提案する。
FoMoは、ネットワーク計画と最適化をサポートするために、複数の都市にまたがる短期・長期予測と分布生成の多様な予測タスクを処理することを目的としている。
FoMoは拡散モデルと変換器を組み合わせており、FoMoが様々なタスクの固有の特徴を学習できるようにするために様々な普遍性マスクが提案されている。
論文 参考訳(メタデータ) (2024-10-20T07:32:16Z) - Data-Heterogeneous Hierarchical Federated Learning with Mobility [20.482704508355905]
フェデレーション学習は、複数のデバイスにまたがる機械学習(ML)モデルの分散トレーニングを可能にする。
本稿では,主に車両ネットワークを対象とする移動性を持つデータヘテロジニアスHFLシナリオについて考察する。
畳み込みニューラルネットワークをトレーニングすると、モビリティがモデル精度を最大15.1%向上できることを示す。
論文 参考訳(メタデータ) (2023-06-19T04:22:18Z) - PS-FedGAN: An Efficient Federated Learning Framework Based on Partially
Shared Generative Adversarial Networks For Data Privacy [56.347786940414935]
分散計算のための効果的な学習パラダイムとして、フェデレートラーニング(FL)が登場した。
本研究は,部分的なGANモデル共有のみを必要とする新しいFLフレームワークを提案する。
PS-FedGANと名付けられたこの新しいフレームワークは、異種データ分散に対処するためのGANリリースおよびトレーニングメカニズムを強化する。
論文 参考訳(メタデータ) (2023-05-19T05:39:40Z) - Improving Privacy-Preserving Vertical Federated Learning by Efficient Communication with ADMM [62.62684911017472]
フェデレートラーニング(FL)により、デバイスは共有モデルを共同でトレーニングし、トレーニングデータをプライバシ目的でローカルに保つことができる。
マルチヘッド(VIM)を備えたVFLフレームワークを導入し、各クライアントの別々のコントリビューションを考慮に入れます。
VIMは最先端技術に比べて性能が著しく向上し、収束が速い。
論文 参考訳(メタデータ) (2022-07-20T23:14:33Z) - Mobility-Aware Cluster Federated Learning in Hierarchical Wireless
Networks [81.83990083088345]
我々は,無線ネットワークにおける階層型フェデレーション学習(HFL)アルゴリズムを特徴付ける理論モデルを開発した。
分析の結果,HFLの学習性能は,ハイモービル利用者の学習能力が著しく低下していることが判明した。
これらの問題を回避するため,我々はMACFLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-08-20T10:46:58Z) - Federated Robustness Propagation: Sharing Adversarial Robustness in
Federated Learning [98.05061014090913]
フェデレートラーニング(FL)は、生データを共有することなく、参加するユーザのセットから学習する、人気のある分散ラーニングスキーマとして登場した。
敵対的トレーニング(AT)は集中学習のための健全なソリューションを提供する。
既存のFL技術では,非IDユーザ間の対向的ロバスト性を効果的に広めることができないことを示す。
本稿では, バッチ正規化統計量を用いてロバスト性を伝達する, 単純かつ効果的な伝搬法を提案する。
論文 参考訳(メタデータ) (2021-06-18T15:52:33Z) - To Talk or to Work: Flexible Communication Compression for Energy
Efficient Federated Learning over Heterogeneous Mobile Edge Devices [78.38046945665538]
巨大なモバイルエッジデバイス上でのフェデレーション学習(FL)は、多数のインテリジェントなモバイルアプリケーションのための新たな地平を開く。
FLは、定期的なグローバル同期と継続的なローカルトレーニングにより、参加するデバイスに膨大な通信と計算負荷を課す。
フレキシブルな通信圧縮を可能にする収束保証FLアルゴリズムを開発。
論文 参考訳(メタデータ) (2020-12-22T02:54:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。