論文の概要: Mobility-Aware Asynchronous Federated Learning with Dynamic Sparsification
- arxiv url: http://arxiv.org/abs/2506.07328v1
- Date: Sun, 08 Jun 2025 23:58:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-10 16:33:10.765352
- Title: Mobility-Aware Asynchronous Federated Learning with Dynamic Sparsification
- Title(参考訳): 動的スパーシフィケーションを用いたモビリティを考慮した非同期フェデレーション学習
- Authors: Jintao Yan, Tan Chen, Yuxuan Sun, Zhaojun Nan, Sheng Zhou, Zhisheng Niu,
- Abstract要約: 本稿では,スペーシフィケーション,モデルスタルネス,モビリティに起因した接触パターン間の相互作用を特徴付ける理論的モデルを開発する。
本稿では,接触時間とモデル安定化度に基づいてスペーシフィケーション度を最適化する移動性を考慮した動的スペーシフィケーションアルゴリズムを提案する。
最先端のベンチマークと比較すると、MADSアルゴリズムはCIFAR-10データセットの画像分類精度を8.76%向上し、Argoverse軌道予測データセットの平均変位誤差を9.46%削減する。
- 参考スコア(独自算出の注目度): 14.942677904783759
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Asynchronous Federated Learning (AFL) enables distributed model training across multiple mobile devices, allowing each device to independently update its local model without waiting for others. However, device mobility introduces intermittent connectivity, which necessitates gradient sparsification and leads to model staleness, jointly affecting AFL convergence. This paper develops a theoretical model to characterize the interplay among sparsification, model staleness and mobility-induced contact patterns, and their joint impact on AFL convergence. Based on the analysis, we propose a mobility-aware dynamic sparsification (MADS) algorithm that optimizes the sparsification degree based on contact time and model staleness. Closed-form solutions are derived, showing that under low-speed conditions, MADS increases the sparsification degree to enhance convergence, while under high-speed conditions, it reduces the sparsification degree to guarantee reliable uploads within limited contact time. Experimental results validate the theoretical findings. Compared with the state-of-the-art benchmarks, the MADS algorithm increases the image classification accuracy on the CIFAR-10 dataset by 8.76% and reduces the average displacement error in the Argoverse trajectory prediction dataset by 9.46%.
- Abstract(参考訳): AFL(Asynchronous Federated Learning)は、複数のモバイルデバイス間での分散モデルトレーニングを可能にする。
しかし、デバイスモビリティは断続接続を導入し、勾配のスペーシングを必要とし、モデルの安定化をもたらし、AFL収束に共同的に影響を及ぼす。
本稿では,スパーシフィケーション,モデルスタルネス,モビリティによる接触パターン間の相互作用を特徴付ける理論モデルを構築し,それらがAFL収束に与える影響について述べる。
この解析に基づいて,接触時間とモデル安定化度に基づいてスペーシフィケーション度を最適化する移動性を考慮した動的スペーシフィケーション(MADS)アルゴリズムを提案する。
低速条件下では、MADSは収束性を高めるためにスペーシフィケーション度を増大させるが、高速条件下では、限られた接触時間内で信頼できるアップロードを保証するためにスペーシフィケーション度を低下させる。
実験結果から理論的な結果が得られた。
最先端のベンチマークと比較すると、MADSアルゴリズムはCIFAR-10データセットの画像分類精度を8.76%向上し、Argoverse軌道予測データセットの平均変位誤差を9.46%削減する。
関連論文リスト
- Joint Velocity-Growth Flow Matching for Single-Cell Dynamics Modeling [36.0492773489553]
破壊的な測定手法と細胞増殖・死の結果、スナップショット間の不均衡および不均衡なデータが得られる。
単細胞個体群における状態遷移と大量成長を共同で学習する新パラダイムであるVelocity-Growth Flow Matchingを提案する。
VGFMは、静的半緩和された最適輸送の2周期の動的理解によって駆動される、状態速度と質量の成長速度を含む理想的な単一セルダイナミクスを構築する。
論文 参考訳(メタデータ) (2025-05-19T17:48:04Z) - SEAFL: Enhancing Efficiency in Semi-Asynchronous Federated Learning through Adaptive Aggregation and Selective Training [26.478852701376294]
半非同期FLにおけるストラグラーと古いモデルの課題を緩和するために設計された新しいFLフレームワークであるSEAFLを提案する。
Em SEAFLは、現在のグローバルモデルに対する安定性と重要性に基づいて、アグリゲーション中にアップロードされたモデルに重みを動的に割り当てる。
我々は,3つのベンチマークデータセットを用いた広範囲な実験により,SEAFLの有効性を評価する。
論文 参考訳(メタデータ) (2025-02-22T05:13:53Z) - Heterogeneity-Aware Cooperative Federated Edge Learning with Adaptive Computation and Communication Compression [7.643645513353701]
クラウドベースのフェデレーション・ラーニング(FL)の欠点により、モバイルエッジネットワーク上でのFLの効率を改善するために、協調フェデレーション・エッジ・ラーニング(CFEL)が提案されている。
CFELは、動的および不均一なデバイス特性から生じる重要な課題に直面し、収束を遅くし、リソース消費を増加させる。
本稿では、トレーニング時間とエネルギー消費を最小化し、モデル精度を最大化することを目的とした、textitHeterogeneity-Aware Cooperative Edge-based Federated Averaging (HCEF)と呼ばれる不均一性を考慮したCFEL方式を提案する。
論文 参考訳(メタデータ) (2024-09-06T04:26:57Z) - Stragglers-Aware Low-Latency Synchronous Federated Learning via Layer-Wise Model Updates [71.81037644563217]
同期フェデレーションラーニング(FL)は、協調エッジラーニングの一般的なパラダイムである。
一部のデバイスは計算資源が限られており、様々な可用性があるため、FLレイテンシはストラグラーに非常に敏感である。
本稿では,NNの最適化手法をバックプロパゲーションにより活用し,グローバルモデルを階層的に更新するストラグラー対応層対応学習(SALF)を提案する。
論文 参考訳(メタデータ) (2024-03-27T09:14:36Z) - Over-the-Air Federated Learning and Optimization [52.5188988624998]
エッジ・ザ・エア計算(AirComp)によるフェデレーション学習(FL)に焦点を当てる。
本稿では,AirComp ベースの FedAvg (AirFedAvg) アルゴリズムの凸および非凸条件下での収束について述べる。
エッジデバイス(モデル、勾配、モデル差など)で送信できるローカルアップデートの種類によって、AirFedAvgで送信するとアグリゲーションエラーが発生する可能性がある。
さらに、より実用的な信号処理方式を検討し、通信効率を改善し、これらの信号処理方式によって引き起こされるモデル集約誤差の異なる形式に収束解析を拡張する。
論文 参考訳(メタデータ) (2023-10-16T05:49:28Z) - Consistency Trajectory Models: Learning Probability Flow ODE Trajectory of Diffusion [56.38386580040991]
Consistency Trajectory Model (CTM) は Consistency Models (CM) の一般化である
CTMは、対戦訓練とスコアマッチング損失を効果的に組み合わせることで、パフォーマンスを向上させる。
CMとは異なり、CTMのスコア関数へのアクセスは、確立された制御可能/条件生成メソッドの採用を合理化することができる。
論文 参考訳(メタデータ) (2023-10-01T05:07:17Z) - Adaptive Model Pruning and Personalization for Federated Learning over
Wireless Networks [72.59891661768177]
フェデレーション学習(FL)は、データプライバシを保護しながら、エッジデバイス間での分散学習を可能にする。
これらの課題を克服するために、部分的なモデルプルーニングとパーソナライズを備えたFLフレームワークを検討する。
このフレームワークは、学習モデルを、データ表現を学ぶためにすべてのデバイスと共有されるモデルプルーニングと、特定のデバイスのために微調整されるパーソナライズされた部分とで、グローバルな部分に分割する。
論文 参考訳(メタデータ) (2023-09-04T21:10:45Z) - Time-sensitive Learning for Heterogeneous Federated Edge Intelligence [52.83633954857744]
フェデレーションエッジインテリジェンス(FEI)システムにおけるリアルタイム機械学習について検討する。
FEIシステムは異種通信と計算資源分布を示す。
本稿では,共有MLモデルの協調学習における全体の実行時間を最小化するために,時間依存型フェデレーションラーニング(TS-FL)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-01-26T08:13:22Z) - Accuracy on the Line: On the Strong Correlation Between
Out-of-Distribution and In-Distribution Generalization [89.73665256847858]
分布外性能は,広範囲なモデルと分布シフトに対する分布内性能と強く相関していることを示す。
具体的には,CIFAR-10 と ImageNet の変種に対する分布内分布と分布外分布性能の強い相関関係を示す。
また,CIFAR-10-Cと組織分類データセットCamelyon17-WILDSの合成分布の変化など,相関が弱いケースについても検討した。
論文 参考訳(メタデータ) (2021-07-09T19:48:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。