論文の概要: FedMeld: A Model-dispersal Federated Learning Framework for Space-ground Integrated Networks
- arxiv url: http://arxiv.org/abs/2412.17231v1
- Date: Mon, 23 Dec 2024 02:58:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-24 15:55:33.131206
- Title: FedMeld: A Model-dispersal Federated Learning Framework for Space-ground Integrated Networks
- Title(参考訳): FedMeld: 宇宙空間統合ネットワークのためのモデル分散フェデレーション学習フレームワーク
- Authors: Qian Chen, Xianhao Chen, Kaibin Huang,
- Abstract要約: 宇宙地上統合ネットワーク(SGIN)は、世界中の隅々に人工知能(AI)サービスを提供することが期待されている。
SGINsのミッションの1つは、世界規模で連邦学習(FL)をサポートすることである。
本稿では,モデル分散(FedMeld)戦略に基づく,インフラストラクチャフリーなフェデレーション学習フレームワークを提案する。
- 参考スコア(独自算出の注目度): 29.49615352723995
- License:
- Abstract: To bridge the digital divide, the space-ground integrated networks (SGINs), which will be a key component of the six-generation (6G) mobile networks, are expected to deliver artificial intelligence (AI) services to every corner of the world. One mission of SGINs is to support federated learning (FL) at a global scale. However, existing space-ground integrated FL frameworks involve ground stations or costly inter-satellite links, entailing excessive training latency and communication costs. To overcome these limitations, we propose an infrastructure-free federated learning framework based on a model dispersal (FedMeld) strategy, which exploits periodic movement patterns and store-carry-forward capabilities of satellites to enable parameter mixing across large-scale geographical regions. We theoretically show that FedMeld leads to global model convergence and quantify the effects of round interval and mixing ratio between adjacent areas on its learning performance. Based on the theoretical results, we formulate a joint optimization problem to design the staleness control and mixing ratio (SC-MR) for minimizing the training loss. By decomposing the problem into sequential SC and MR subproblems without compromising the optimality, we derive the round interval solution in a closed form and the mixing ratio in a semi-closed form to achieve the \textit{optimal} latency-accuracy tradeoff. Experiments using various datasets demonstrate that FedMeld achieves superior model accuracy while significantly reducing communication costs as compared with traditional FL schemes for SGINs.
- Abstract(参考訳): 6世代(6G)モバイルネットワークの重要なコンポーネントである地上統合ネットワーク(SGIN)は、デジタルディビジョンを橋渡しするため、世界中の隅々に人工知能(AI)サービスを提供することが期待されている。
SGINsのミッションの1つは、世界規模で連邦学習(FL)をサポートすることである。
しかし、既存の地上統合FLフレームワークには地上局や衛星間リンクが伴い、過度の訓練遅延と通信コストが伴う。
これらの制約を克服するために,衛星の周期的移動パターンとストアフォワード機能を利用して大規模地理的領域をまたいだパラメータ混合を可能にするモデル分散(FedMeld)戦略に基づく,インフラストラクチャフリーなフェデレーション学習フレームワークを提案する。
理論的には,FedMeldがグローバルモデル収束につながり,隣接する領域間の円間隔と混合比が学習性能に与える影響を定量的に示す。
理論的な結果に基づいて、トレーニング損失を最小限に抑えるための静的制御と混合比(SC-MR)を設計するための共同最適化問題を定式化する。
この問題を最適性を損なうことなく逐次SCおよびMRサブプロブレムに分解することにより、閉形式の円間隔解と半閉鎖型の混合比を導出し、textit{optimal}レイテンシ-精度トレードオフを実現する。
各種データセットを用いた実験により、FedMeldはSGINの従来のFLスキームと比較して通信コストを大幅に削減し、優れたモデル精度を実現することが示された。
関連論文リスト
- Satellite Federated Edge Learning: Architecture Design and Convergence Analysis [47.057886812985984]
本稿では,FEDMEGAという新しいFEELアルゴリズムを提案する。
軌道内モデルアグリゲーションのための衛星間リンク(ISL)を統合することにより、提案アルゴリズムは低データレートと断続的なGSLの使用を著しく削減する。
提案手法は,環全リデューサに基づく軌道内アグリゲーション機構と,グローバルモデルアグリゲーションのためのネットワークフローベースのトランスミッションスキームを組み合わせたものである。
論文 参考訳(メタデータ) (2024-04-02T11:59:58Z) - Stragglers-Aware Low-Latency Synchronous Federated Learning via Layer-Wise Model Updates [71.81037644563217]
同期フェデレーションラーニング(FL)は、協調エッジラーニングの一般的なパラダイムである。
一部のデバイスは計算資源が限られており、様々な可用性があるため、FLレイテンシはストラグラーに非常に敏感である。
本稿では,NNの最適化手法をバックプロパゲーションにより活用し,グローバルモデルを階層的に更新するストラグラー対応層対応学習(SALF)を提案する。
論文 参考訳(メタデータ) (2024-03-27T09:14:36Z) - Semi-Federated Learning: Convergence Analysis and Optimization of A
Hybrid Learning Framework [70.83511997272457]
本稿では,ベースステーション(BS)とデバイスの両方を活用するセミフェデレーション学習(SemiFL)パラダイムを提案し,中央集権学習(CL)とFLのハイブリッド実装を提案する。
我々はこの難解な問題を解くための2段階のアルゴリズムを提案し、ビームフォーマに閉形式解を提供する。
論文 参考訳(メタデータ) (2023-10-04T03:32:39Z) - Adaptive Model Pruning and Personalization for Federated Learning over
Wireless Networks [72.59891661768177]
フェデレーション学習(FL)は、データプライバシを保護しながら、エッジデバイス間での分散学習を可能にする。
これらの課題を克服するために、部分的なモデルプルーニングとパーソナライズを備えたFLフレームワークを検討する。
このフレームワークは、学習モデルを、データ表現を学ぶためにすべてのデバイスと共有されるモデルプルーニングと、特定のデバイスのために微調整されるパーソナライズされた部分とで、グローバルな部分に分割する。
論文 参考訳(メタデータ) (2023-09-04T21:10:45Z) - Vertical Federated Learning over Cloud-RAN: Convergence Analysis and
System Optimization [82.12796238714589]
高速かつ正確なモデルアグリゲーションを実現するために,クラウド無線アクセスネットワーク(Cloud-RAN)ベースの垂直FLシステムを提案する。
アップリンクとダウンリンクの両方の伝送を考慮した垂直FLアルゴリズムの収束挙動を特徴付ける。
我々は,連続凸近似と代替凸探索に基づくシステム最適化アルゴリズムを開発した,連系トランシーバとフロントホール量子化設計によるシステム最適化フレームワークを構築した。
論文 参考訳(メタデータ) (2023-05-04T09:26:03Z) - FedDM: Iterative Distribution Matching for Communication-Efficient
Federated Learning [87.08902493524556]
フェデレートラーニング(FL)は近年、学術や産業から注目を集めている。
我々は,複数の局所的代理関数からグローバルなトレーニング目標を構築するためのFedDMを提案する。
そこで本研究では,各クライアントにデータ集合を構築し,元のデータから得られた損失景観を局所的にマッチングする。
論文 参考訳(メタデータ) (2022-07-20T04:55:18Z) - Federated learning for LEO constellations via inter-HAP links [0.0]
ローアース・オービット(LEO)衛星星座は近年、急速に展開している。
このような応用に機械学習(ML)を適用するには、画像などの衛星データを地上局(GS)にダウンロードする従来の方法は望ましいものではない。
既存のFLソリューションは、過剰収束遅延や信頼できない無線チャネルといった大きな課題のために、そのようなLEOコンステレーションのシナリオには適さないことを示す。
論文 参考訳(メタデータ) (2022-05-15T08:22:52Z) - Joint Superposition Coding and Training for Federated Learning over
Multi-Width Neural Networks [52.93232352968347]
本稿では,2つの相乗的技術,フェデレートラーニング(FL)と幅調整可能なスリムブルニューラルネットワーク(SNN)を統合することを目的とする。
FLは、ローカルに訓練されたモバイルデバイスのモデルを交換することによって、データのプライバシを保護している。しかしながら、SNNは、特に時間変化のあるチャネル条件との無線接続下では、非自明である。
局所モデル更新のためのグローバルモデル集約と重ね合わせ訓練(ST)に重ね合わせ符号化(SC)を併用した通信およびエネルギー効率の高いSNNベースFL(SlimFL)を提案する。
論文 参考訳(メタデータ) (2021-12-05T11:17:17Z) - Communication-Efficient Hierarchical Federated Learning for IoT
Heterogeneous Systems with Imbalanced Data [42.26599494940002]
フェデレートラーニング(Federated Learning, FL)は、複数のノードが協調してディープラーニングモデルをトレーニングできる分散ラーニング方法論である。
本稿では,IoTヘテロジニアスシステムにおける階層FLの可能性について検討する。
複数のエッジノード上でのユーザ割り当てとリソース割り当てに最適化されたソリューションを提案する。
論文 参考訳(メタデータ) (2021-07-14T08:32:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。