論文の概要: Communication and Computation Efficient Split Federated Learning in O-RAN
- arxiv url: http://arxiv.org/abs/2508.02534v1
- Date: Mon, 04 Aug 2025 15:42:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-05 18:25:22.412785
- Title: Communication and Computation Efficient Split Federated Learning in O-RAN
- Title(参考訳): O-RANにおける分散学習のコミュニケーションと計算効率
- Authors: Shunxian Gu, Chaoqun You, Bangbang Ren, Deke Guo,
- Abstract要約: SFLフレームワークであるSplitMeを提案する。これは、相互学習を利用して、近RT-RICのモデルと非RT-RICの逆モデルとを交互に独立にトレーニングする。
計算の結果,SFL,FedAvg,O-RANFedなどのFLフレームワークよりもコストと収束性が高いことがわかった。
- 参考スコア(独自算出の注目度): 10.853675449639281
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The hierarchical architecture of Open Radio Access Network (O-RAN) has enabled a new Federated Learning (FL) paradigm that trains models using data from non- and near-real-time (near-RT) Radio Intelligent Controllers (RICs). However, the ever-increasing model size leads to longer training time, jeopardizing the deadline requirements for both non-RT and near-RT RICs. To address this issue, split federated learning (SFL) offers an approach by offloading partial model layers from near-RT-RIC to high-performance non-RT-RIC. Nonetheless, its deployment presents two challenges: (i) Frequent data/gradient transfers between near-RT-RIC and non-RT-RIC in SFL incur significant communication cost in O-RAN. (ii) Proper allocation of computational and communication resources in O-RAN is vital to satisfying the deadline and affects SFL convergence. Therefore, we propose SplitMe, an SFL framework that exploits mutual learning to alternately and independently train the near-RT-RIC's model and the non-RT-RIC's inverse model, eliminating frequent transfers. The ''inverse'' of the inverse model is derived via a zeroth-order technique to integrate the final model. Then, we solve a joint optimization problem for SplitMe to minimize overall resource costs with deadline-aware selection of near-RT-RICs and adaptive local updates. Our numerical results demonstrate that SplitMe remarkably outperforms FL frameworks like SFL, FedAvg and O-RANFed regarding costs and convergence.
- Abstract(参考訳): Open Radio Access Network(O-RAN)の階層的アーキテクチャにより、非リアルタイム(近RT)無線インテリジェントコントローラ(RIC)のデータを使用してモデルをトレーニングする新しいフェデレートラーニング(FL)パラダイムが実現された。
しかし、モデルのサイズが増加し続けると、トレーニング時間が長くなるため、非RTと近RTの両方のRCCの期限要件が危うくなる。
この問題に対処するため、分割フェデレーションラーニング(SFL)は、部分モデル層を近RT-RICから高性能非RT-RICへオフロードするアプローチを提供する。
それでも、その展開には2つの課題がある。
i) SFLにおける近RT-RICと非RT-RIC間の頻繁なデータ/緩やかな転送は、O-RANにおいてかなりの通信コストを発生させる。
(II)O-RANにおける計算・通信資源の適正配分は、期限を満たす上で不可欠であり、SFL収束に影響を与える。
そこで本稿では,相互学習を利用したSFLフレームワークであるSplitMeを提案し,近接RT-RICのモデルと非RT-RICの逆モデルとを交互に独立に学習し,頻繁な転送を不要とする。
逆モデルの「逆」は、最終モデルを統合するゼロ階法によって導出される。
次に,近RT-RICの期限付き選択と適応的なローカル更新により,資源コストを最小化するために,SplitMeの協調最適化問題を解く。
計算の結果,SFL,FedAvg,O-RANFedなどのFLフレームワークよりもコストと収束性が高いことがわかった。
関連論文リスト
- FedMeld: A Model-dispersal Federated Learning Framework for Space-ground Integrated Networks [29.49615352723995]
宇宙地上統合ネットワーク(SGIN)は、世界中の隅々に人工知能(AI)サービスを提供することが期待されている。
SGINsのミッションの1つは、世界規模で連邦学習(FL)をサポートすることである。
本稿では,モデル分散(FedMeld)戦略に基づく,インフラストラクチャフリーなフェデレーション学習フレームワークを提案する。
論文 参考訳(メタデータ) (2024-12-23T02:58:12Z) - R-SFLLM: Jamming Resilient Framework for Split Federated Learning with Large Language Models [83.77114091471822]
Split Federated Learning (SFL)は、分散機械学習(ML)における計算効率のパラダイムである。
SFLの課題は、特に無線チャネル上に展開する場合、送信されたモデルパラメータが相手のジャミングに感受性を持つことである。
これは、言語理解に不可欠である大規模言語モデル(LLM)における単語埋め込みパラメータに対して特に顕著である。
無線ネットワーク上でのLLM(R-SFLLM)を用いたレジリエンスSFLのための物理層フレームワークを開発した。
論文 参考訳(メタデータ) (2024-07-16T12:21:29Z) - AdaptSFL: Adaptive Split Federated Learning in Resource-constrained Edge Networks [15.195798715517315]
Split Federated Learning(SFL)は、モデルのパーティショニングを通じて、最初のトレーニングワークロードをサーバにfloadする、有望なソリューションである。
本稿では,資源制約付きエッジコンピューティングシステムにおいて,SFLを高速化するための新しいリソース適応型SFLフレームワークであるAdaptSFLを提案する。
論文 参考訳(メタデータ) (2024-03-19T19:05:24Z) - Communication Resources Constrained Hierarchical Federated Learning for
End-to-End Autonomous Driving [67.78611905156808]
本稿では,最適化に基づくコミュニケーションリソース制約付き階層型学習フレームワークを提案する。
その結果,提案したCRCHFLは収束速度を加速し,フェデレーション学習自律運転モデルの一般化を促進することがわかった。
論文 参考訳(メタデータ) (2023-06-28T12:44:59Z) - Delay-Aware Hierarchical Federated Learning [7.292078085289465]
本稿では,分散機械学習(ML)モデルの学習効率を向上させるために,遅延認識型階層型学習(DFL)を提案する。
グローバル同期の間、クラウドサーバは、凸制御アルゴリズムを使用して、ローカルモデルを時代遅れのグローバルモデルと統合する。
数値評価により、DFLの高速グローバルモデル、収束資源の削減、通信遅延に対する評価において優れた性能を示す。
論文 参考訳(メタデータ) (2023-03-22T09:23:29Z) - Time-sensitive Learning for Heterogeneous Federated Edge Intelligence [52.83633954857744]
フェデレーションエッジインテリジェンス(FEI)システムにおけるリアルタイム機械学習について検討する。
FEIシステムは異種通信と計算資源分布を示す。
本稿では,共有MLモデルの協調学習における全体の実行時間を最小化するために,時間依存型フェデレーションラーニング(TS-FL)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-01-26T08:13:22Z) - SlimFL: Federated Learning with Superposition Coding over Slimmable
Neural Networks [56.68149211499535]
フェデレートラーニング(FL)は、デバイスの分散コンピューティング機能を活用した効率的なコミュニケーションとコンピューティングのための重要な実現手段である。
本稿では、FLと幅調整可能なスリムブルニューラルネットワーク(SNN)を統合した新しい学習フレームワークを提案する。
局所モデル更新のためのグローバルモデル集約と重ね合わせ訓練(ST)に重ね合わせ符号化(SC)を併用した通信およびエネルギー効率の高いSNNベースFL(SlimFL)を提案する。
論文 参考訳(メタデータ) (2022-03-26T15:06:13Z) - Resource-Efficient and Delay-Aware Federated Learning Design under Edge
Heterogeneity [10.702853653891902]
フェデレーテッド・ラーニング(FL)は、ワイヤレスエッジデバイスに機械学習を分散するための一般的な方法論として登場した。
本研究では,FLにおけるモデル性能と資源利用のトレードオフを最適化することを検討する。
提案したStoFedDelAvは、FL計算ステップに局所言語モデルコンバインダーを組み込む。
論文 参考訳(メタデータ) (2021-12-27T22:30:15Z) - Joint Superposition Coding and Training for Federated Learning over
Multi-Width Neural Networks [52.93232352968347]
本稿では,2つの相乗的技術,フェデレートラーニング(FL)と幅調整可能なスリムブルニューラルネットワーク(SNN)を統合することを目的とする。
FLは、ローカルに訓練されたモバイルデバイスのモデルを交換することによって、データのプライバシを保護している。しかしながら、SNNは、特に時間変化のあるチャネル条件との無線接続下では、非自明である。
局所モデル更新のためのグローバルモデル集約と重ね合わせ訓練(ST)に重ね合わせ符号化(SC)を併用した通信およびエネルギー効率の高いSNNベースFL(SlimFL)を提案する。
論文 参考訳(メタデータ) (2021-12-05T11:17:17Z) - Unit-Modulus Wireless Federated Learning Via Penalty Alternating
Minimization [64.76619508293966]
Wireless Federated Learning(FL)は、分散データセットから無線通信を介してグローバルパラメトリックモデルをトレーニングする、新興機械学習パラダイムである。
本稿では、ローカルモデルパラメータをアップロードし、無線通信を介してグローバルモデルパラメータを算出する無線FLフレームワークを提案する。
論文 参考訳(メタデータ) (2021-08-31T08:19:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。