論文の概要: Federated Neuroevolution O-RAN: Enhancing the Robustness of Deep Reinforcement Learning xApps
- arxiv url: http://arxiv.org/abs/2506.12812v1
- Date: Sun, 15 Jun 2025 10:58:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-17 17:28:46.903123
- Title: Federated Neuroevolution O-RAN: Enhancing the Robustness of Deep Reinforcement Learning xApps
- Title(参考訳): Federated Neuroevolution O-RAN:Deep Reinforcement Learning xAppsのロバスト性を高める
- Authors: Mohammadreza Kouchaki, Aly Sabri Abdalla, Vuk Marojevic,
- Abstract要約: 強化学習(RL)とその先進的な形式である深層RL(DRL)は、ほぼリアルタイム(ほぼRT)のRICにデプロイされるインテリジェントコントローラ(xApp)の設計にますます採用されている。
これらのモデルはしばしば局所的な最適化に遭遇し、RANインテリジェント制御に対する信頼性への懸念を引き起こす。
我々は、NEベースのxAppをRANコントローラxAppsと並行してデプロイするFederated O- enabled Neuroevolution (NE-DRL)を紹介する。
このNE-DRL xAppフレームワークは、破壊することなく、近RT RICの効率的な探索と利用を可能にする
- 参考スコア(独自算出の注目度): 4.035007094168652
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The open radio access network (O-RAN) architecture introduces RAN intelligent controllers (RICs) to facilitate the management and optimization of the disaggregated RAN. Reinforcement learning (RL) and its advanced form, deep RL (DRL), are increasingly employed for designing intelligent controllers, or xApps, to be deployed in the near-real time (near-RT) RIC. These models often encounter local optima, which raise concerns about their reliability for RAN intelligent control. We therefore introduce Federated O-RAN enabled Neuroevolution (NE)-enhanced DRL (F-ONRL) that deploys an NE-based optimizer xApp in parallel to the RAN controller xApps. This NE-DRL xApp framework enables effective exploration and exploitation in the near-RT RIC without disrupting RAN operations. We implement the NE xApp along with a DRL xApp and deploy them on Open AI Cellular (OAIC) platform and present numerical results that demonstrate the improved robustness of xApps while effectively balancing the additional computational load.
- Abstract(参考訳): オープン無線アクセスネットワーク(O-RAN)アーキテクチャでは、非集約RANの管理と最適化を容易にするためにRANインテリジェントコントローラ(RIC)が導入されている。
強化学習(RL)とその先進形式である深層RL(DRL)は、ほぼリアルタイム(ほぼRT)のRICにデプロイされるインテリジェントコントローラ(xApp)の設計にますます採用されている。
これらのモデルはしばしば局所的な最適化に遭遇し、RANインテリジェント制御に対する信頼性への懸念を引き起こす。
そこで我々は、NEベースのオプティマイザxAppをRANコントローラxAppsに並列にデプロイする、NE(Federated O-RAN enabled Neuroevolution)拡張DRL(F-ONRL)を導入する。
このNE-DRL xAppフレームワークは、RAN操作を中断することなく、近RT RICの効率的な探索と利用を可能にする。
我々は NE xApp を DRL xApp とともに実装し,それらを Open AI Cellular (OAIC) プラットフォームにデプロイする。
関連論文リスト
- Learning to Reason without External Rewards [100.27210579418562]
RLVR(Reinforcement Learning with Verifiable Rewards)による複雑な推論のための大規模言語モデル(LLM)の訓練は、費用がかかるドメイン固有の監督に依存して効果的であるが制限されている。
内部フィードバックからの強化学習(Reinforcement Learning from Internal Feedback, RLIF)は、LLMが外部の報酬やラベル付きデータなしで本質的な信号から学習できるフレームワークである。
本稿では,モデル自身の信頼度を利用したRLIF手法であるIntuitorについて,その唯一の報奨信号として自己確実性(self-certainty)を提案する。
論文 参考訳(メタデータ) (2025-05-26T07:01:06Z) - LAMeTA: Intent-Aware Agentic Network Optimization via a Large AI Model-Empowered Two-Stage Approach [68.198383438396]
本稿では,大規模AIモデル(LAM)を用いたエージェントネットワーク最適化のための2段階アプローチであるLAMeTAを提案する。
まず,インテント指向の知識蒸留(IoKD)を提案する。
第2に、E-LAMをポリシーベースのDRLフレームワークに統合した共生強化学習(SRL)を開発する。
論文 参考訳(メタデータ) (2025-05-18T05:59:16Z) - LLM-hRIC: LLM-empowered Hierarchical RAN Intelligent Control for O-RAN [56.94324843095396]
本稿では、無線アクセスネットワーク(O-RAN)におけるRCC間の協調性を改善するため、LLM-hRIC(LLM-hRIC)フレームワークを紹介する。
このフレームワークは,グローバルネットワーク情報を用いたリアルタイムRIC(non-RT RIC)の戦略的ガイダンスを提供する。
RL搭載の近RT RICは実装者として機能し、このガイダンスとローカルリアルタイムデータを組み合わせて近RT決定を行う。
論文 参考訳(メタデータ) (2025-04-25T04:18:23Z) - Enhancing Spectrum Efficiency in 6G Satellite Networks: A GAIL-Powered Policy Learning via Asynchronous Federated Inverse Reinforcement Learning [67.95280175998792]
ビームフォーミング,スペクトルアロケーション,リモートユーザ機器(RUE)アソシエイトを最適化するために,GAILを利用した新しいポリシー学習手法を提案する。
手動チューニングなしで報酬関数を自動的に学習するために、逆RL(IRL)を用いる。
提案手法は従来のRL手法よりも優れており,コンバージェンスと報酬値の14.6%の改善が達成されている。
論文 参考訳(メタデータ) (2024-09-27T13:05:02Z) - Safe and Accelerated Deep Reinforcement Learning-based O-RAN Slicing: A
Hybrid Transfer Learning Approach [20.344810727033327]
我々は,DRLをベースとしたO-RANスライシングにおいて,安全かつ迅速な収束を実現するためのハイブリッドTL支援手法を提案し,設計する。
提案されたハイブリッドアプローチは、少なくとも7.7%と20.7%は、平均的な初期報酬値と収束シナリオの割合を改善している。
論文 参考訳(メタデータ) (2023-09-13T18:58:34Z) - Sparsity-Aware Intelligent Massive Random Access Control in Open RAN: A
Reinforcement Learning Based Approach [61.74489383629319]
新たなOpen Radio Access Network(O-RAN)におけるデバイスの大量ランダムアクセスは、アクセス制御と管理に大きな課題をもたらします。
閉ループアクセス制御の強化学習(RL)支援方式を提案する。
深部RL支援SAUDは、連続的かつ高次元の状態と行動空間を持つ複雑な環境を解決するために提案されている。
論文 参考訳(メタデータ) (2023-03-05T12:25:49Z) - Programmable and Customized Intelligence for Traffic Steering in 5G
Networks Using Open RAN Architectures [16.48682480842328]
5G以降のモバイルネットワークは、前例のない規模で異質なユースケースをサポートする。
無線アクセスネットワーク(RAN)のこのようなきめ細かい制御は、現在のセルアーキテクチャでは不可能である。
クローズドループ制御を可能とし,ユーザレベルでRANをデータ駆動でインテリジェントに最適化するオープンアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-09-28T15:31:06Z) - Actor-Critic Network for O-RAN Resource Allocation: xApp Design,
Deployment, and Analysis [3.8073142980733]
Open Radio Access Network (O-RAN)は、オープンネス、インテリジェンス、自動制御を可能にする新しいRANアーキテクチャを導入した。
RAN Intelligent Controller (RIC)は、RANコントローラの設計とデプロイのためのプラットフォームを提供する。
xAppsは、機械学習(ML)アルゴリズムを活用してほぼリアルタイムで動作することで、この責任を負うアプリケーションである。
論文 参考訳(メタデータ) (2022-09-26T19:12:18Z) - FORLORN: A Framework for Comparing Offline Methods and Reinforcement
Learning for Optimization of RAN Parameters [0.0]
本稿では,ネットワーク環境におけるRLエージェントの性能をns-3でシミュレートする新しいフレームワークを提案する。
このフレームワークでは、ドメイン固有の知識を持たないRLエージェントが、静的シナリオにおけるオフライン最適化に適合するように、Radio Access Network(RAN)パラメータを効率的に調整する方法を学習できることを実証する。
論文 参考訳(メタデータ) (2022-09-08T12:58:09Z) - ColO-RAN: Developing Machine Learning-based xApps for Open RAN
Closed-loop Control on Programmable Experimental Platforms [22.260874168813647]
ColO-RANは、ソフトウェア定義のRadios-in-the-loopを備えた、初めて一般公開された大規模O-RANテストフレームワークである。
ColO-RANは、O-RANコンポーネント、プログラム可能なベースステーション、および"無線データファクトリ"を使用した大規模ML研究を可能にする
DRLをベースとした適応制御の利点と課題を明らかにする。
論文 参考訳(メタデータ) (2021-12-17T15:14:22Z) - DriverGym: Democratising Reinforcement Learning for Autonomous Driving [75.91049219123899]
本稿では,自律運転のための強化学習アルゴリズムを開発するオープンソース環境であるDeadGymを提案する。
DriverGymは1000時間以上の専門家ログデータへのアクセスを提供し、リアクティブおよびデータ駆動エージェントの動作をサポートする。
広範かつフレキシブルなクローズループ評価プロトコルを用いて,実世界のデータ上でRLポリシーの性能を容易に検証できる。
論文 参考訳(メタデータ) (2021-11-12T11:47:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。