論文の概要: Mobility-Assisted Decentralized Federated Learning: Convergence Analysis and A Data-Driven Approach
- arxiv url: http://arxiv.org/abs/2512.24694v1
- Date: Wed, 31 Dec 2025 07:59:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-01 23:27:28.599896
- Title: Mobility-Assisted Decentralized Federated Learning: Convergence Analysis and A Data-Driven Approach
- Title(参考訳): モビリティ支援型分散フェデレーション学習:収束分析とデータ駆動アプローチ
- Authors: Reza Jahani, Md Farhamdur Reza, Richeng Jin, Huaiyu Dai,
- Abstract要約: Decentralized Federated Learning (DFL)は、中央サーバに頼ることなく、ユーザ間の協調トレーニングを可能にする、プライバシ保護機械学習パラダイムとして登場した。
DFLの性能向上におけるモビリティの役割を系統的に検討する。
そこで我々は,移動パターンを誘導するモバイルユーザを利用したDFLフレームワークを提案し,データ配信の知識を活用して,ネットワークを介した情報伝達を促進する。
- 参考スコア(独自算出の注目度): 32.667262494165534
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Decentralized Federated Learning (DFL) has emerged as a privacy-preserving machine learning paradigm that enables collaborative training among users without relying on a central server. However, its performance often degrades significantly due to limited connectivity and data heterogeneity. As we move toward the next generation of wireless networks, mobility is increasingly embedded in many real-world applications. The user mobility, either natural or induced, enables clients to act as relays or bridges, thus enhancing information flow in sparse networks; however, its impact on DFL has been largely overlooked despite its potential. In this work, we systematically investigate the role of mobility in improving DFL performance. We first establish the convergence of DFL in sparse networks under user mobility and theoretically demonstrate that even random movement of a fraction of users can significantly boost performance. Building upon this insight, we propose a DFL framework that utilizes mobile users with induced mobility patterns, allowing them to exploit the knowledge of data distribution to determine their trajectories to enhance information propagation through the network. Through extensive experiments, we empirically confirm our theoretical findings, validate the superiority of our approach over baselines, and provide a comprehensive analysis of how various network parameters influence DFL performance in mobile networks.
- Abstract(参考訳): Decentralized Federated Learning (DFL)は、中央サーバに頼ることなく、ユーザ間の協調トレーニングを可能にする、プライバシ保護機械学習パラダイムとして登場した。
しかしながら、接続性やデータの均一性に制限があるため、その性能は著しく低下することが多い。
次世代のワイヤレスネットワークに向かって進むにつれ、モビリティは多くの現実世界のアプリケーションに組み込まれています。
ユーザモビリティは、自然か誘導かのいずれかで、クライアントがリレーやブリッジとして振る舞うことができるため、スパースネットワークにおける情報フローが向上するが、その可能性にもかかわらず、DFLへの影響はほとんど見落とされている。
本研究では,DFLの性能向上におけるモビリティの役割を体系的に検討する。
我々はまず,ユーザの移動性を考慮したスパースネットワークにおけるDFLの収束性を確立し,少数のユーザのランダムな動きであっても,性能を著しく向上させることができることを理論的に証明した。
この知見に基づいて,移動パターンを誘導するモバイルユーザを利用したDFLフレームワークを提案し,データ配信の知識を活用してトラジェクトリを判断し,ネットワークを介した情報伝達を促進する。
広範な実験を通じて,我々の理論的知見を実証的に検証し,ベースラインよりもアプローチの優位性を検証し,モバイルネットワークにおける様々なネットワークパラメータがDFLの性能に与える影響を包括的に分析した。
関連論文リスト
- Distribution-Aware Mobility-Assisted Decentralized Federated Learning [28.986426579981924]
分散連合学習(DFL)は、スケーラビリティと中央サーバからの独立性により、大きな注目を集めている。
ランダムな移動であっても、少数のモバイルクライアントを導入することで、情報フローを容易にすることで、DFLの精度を大幅に向上できることを示す。
そこで我々は,モバイルクライアントがネットワークを戦略的にナビゲートする,新しい分散対応モビリティパターンを提案する。
論文 参考訳(メタデータ) (2025-05-24T20:47:42Z) - Performance Analysis of Decentralized Federated Learning Deployments [1.7249361224827533]
これらの課題に対処するために、分散フェデレートラーニング(DFL)が導入されている。
中央サーバに頼ることなく、参加するデバイス間の直接的なコラボレーションを促進する。
本研究は、DFLモデルの収束と一般化能力に影響を与える決定的な要因について考察する。
論文 参考訳(メタデータ) (2025-03-14T19:37:13Z) - Personalized Wireless Federated Learning for Large Language Models [75.22457544349668]
大規模言語モデル(LLM)は、無線ネットワークにおいて大きな変革をもたらしている。
無線環境では、LLMのトレーニングはセキュリティとプライバシに関する重大な課題に直面している。
本稿では,無線ネットワークにおけるLLMのトレーニング段階の体系的解析を行い,事前学習,命令チューニング,アライメントチューニングを行う。
論文 参考訳(メタデータ) (2024-04-20T02:30:21Z) - Effective Intrusion Detection in Heterogeneous Internet-of-Things Networks via Ensemble Knowledge Distillation-based Federated Learning [52.6706505729803]
我々は、分散化された侵入検知システムの共有モデル(IDS)を協調訓練するために、フェデレートラーニング(FL)を導入する。
FLEKDは従来のモデル融合法よりも柔軟な凝集法を実現する。
実験の結果,提案手法は,速度と性能の両面で,局所訓練と従来のFLよりも優れていた。
論文 参考訳(メタデータ) (2024-01-22T14:16:37Z) - Data-Heterogeneous Hierarchical Federated Learning with Mobility [20.482704508355905]
フェデレーション学習は、複数のデバイスにまたがる機械学習(ML)モデルの分散トレーニングを可能にする。
本稿では,主に車両ネットワークを対象とする移動性を持つデータヘテロジニアスHFLシナリオについて考察する。
畳み込みニューラルネットワークをトレーニングすると、モビリティがモデル精度を最大15.1%向上できることを示す。
論文 参考訳(メタデータ) (2023-06-19T04:22:18Z) - Spatio-Temporal Federated Learning for Massive Wireless Edge Networks [23.389249751372393]
エッジサーバと多数のモバイルデバイス(クライアント)は、モバイルデバイスが収集した膨大なデータをエッジサーバに転送することなく、グローバルモデルを共同で学習する。
提案手法は,STFLに参加する予定の様々なモバイルデバイスからの学習更新の空間的および時間的相関を利用している。
収束性能を用いてSTFLの学習能力を研究するために,STFLの分析フレームワークを提案する。
論文 参考訳(メタデータ) (2021-10-27T16:46:45Z) - Federated Learning over Wireless IoT Networks with Optimized
Communication and Resources [98.18365881575805]
協調学習技術のパラダイムとしてのフェデレートラーニング(FL)は研究の注目を集めている。
無線システム上での高速応答および高精度FLスキームの検証が重要である。
提案する通信効率のよいフェデレーション学習フレームワークは,強い線形速度で収束することを示す。
論文 参考訳(メタデータ) (2021-10-22T13:25:57Z) - Mobility-Aware Cluster Federated Learning in Hierarchical Wireless
Networks [81.83990083088345]
我々は,無線ネットワークにおける階層型フェデレーション学習(HFL)アルゴリズムを特徴付ける理論モデルを開発した。
分析の結果,HFLの学習性能は,ハイモービル利用者の学習能力が著しく低下していることが判明した。
これらの問題を回避するため,我々はMACFLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-08-20T10:46:58Z) - To Talk or to Work: Flexible Communication Compression for Energy
Efficient Federated Learning over Heterogeneous Mobile Edge Devices [78.38046945665538]
巨大なモバイルエッジデバイス上でのフェデレーション学習(FL)は、多数のインテリジェントなモバイルアプリケーションのための新たな地平を開く。
FLは、定期的なグローバル同期と継続的なローカルトレーニングにより、参加するデバイスに膨大な通信と計算負荷を課す。
フレキシブルな通信圧縮を可能にする収束保証FLアルゴリズムを開発。
論文 参考訳(メタデータ) (2020-12-22T02:54:18Z) - Communication Efficient Federated Learning with Energy Awareness over
Wireless Networks [51.645564534597625]
フェデレートラーニング(FL)では、パラメータサーバとモバイルデバイスが無線リンク上でトレーニングパラメータを共有する。
我々は、勾配の符号のみを交換するSignSGDという考え方を採用する。
2つの最適化問題を定式化し、学習性能を最適化する。
FLでは非常に不均一な方法でモバイルデバイスに分散される可能性があることを考慮し,手話に基づくアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-04-15T21:25:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。