論文の概要: ColO-RAN: Developing Machine Learning-based xApps for Open RAN
Closed-loop Control on Programmable Experimental Platforms
- arxiv url: http://arxiv.org/abs/2112.09559v1
- Date: Fri, 17 Dec 2021 15:14:22 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-20 15:46:10.047099
- Title: ColO-RAN: Developing Machine Learning-based xApps for Open RAN
Closed-loop Control on Programmable Experimental Platforms
- Title(参考訳): ColO-RAN: プログラム可能な実験プラットフォーム上でのオープンRAN閉ループ制御のための機械学習ベースのxアプリ開発
- Authors: Michele Polese, Leonardo Bonati, Salvatore D'Oro, Stefano Basagni,
Tommaso Melodia
- Abstract要約: ColO-RANは、ソフトウェア定義のRadios-in-the-loopを備えた、初めて一般公開された大規模O-RANテストフレームワークである。
ColO-RANは、O-RANコンポーネント、プログラム可能なベースステーション、および"無線データファクトリ"を使用した大規模ML研究を可能にする
DRLをベースとした適応制御の利点と課題を明らかにする。
- 参考スコア(独自算出の注目度): 22.260874168813647
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In spite of the new opportunities brought about by the Open RAN, advances in
ML-based network automation have been slow, mainly because of the
unavailability of large-scale datasets and experimental testing infrastructure.
This slows down the development and widespread adoption of Deep Reinforcement
Learning (DRL) agents on real networks, delaying progress in intelligent and
autonomous RAN control. In this paper, we address these challenges by proposing
practical solutions and software pipelines for the design, training, testing,
and experimental evaluation of DRL-based closed-loop control in the Open RAN.
We introduce ColO-RAN, the first publicly-available large-scale O-RAN testing
framework with software-defined radios-in-the-loop. Building on the scale and
computational capabilities of the Colosseum wireless network emulator, ColO-RAN
enables ML research at scale using O-RAN components, programmable base
stations, and a "wireless data factory". Specifically, we design and develop
three exemplary xApps for DRL-based control of RAN slicing, scheduling and
online model training, and evaluate their performance on a cellular network
with 7 softwarized base stations and 42 users. Finally, we showcase the
portability of ColO-RAN to different platforms by deploying it on Arena, an
indoor programmable testbed. Extensive results from our first-of-its-kind
large-scale evaluation highlight the benefits and challenges of DRL-based
adaptive control. They also provide insights on the development of wireless DRL
pipelines, from data analysis to the design of DRL agents, and on the tradeoffs
associated to training on a live RAN. ColO-RAN and the collected large-scale
dataset will be made publicly available to the research community.
- Abstract(参考訳): オープンランによってもたらされた新たな機会にもかかわらず、mlベースのネットワーク自動化の進歩は、主に大規模なデータセットと実験的なテストインフラストラクチャが利用できないため、遅くなっている。
これにより、実際のネットワーク上でのDeep Reinforcement Learning (DRL)エージェントの開発と普及が遅くなり、インテリジェントかつ自律的なRAN制御の進歩が遅れる。
本稿では,これらの課題に対して,オープンRANにおけるDRLベースの閉ループ制御の設計,トレーニング,テスト,実験評価のための実用的なソリューションとソフトウェアパイプラインを提案する。
coo-ranは,ソフトウェア定義ラジオインザループを用いた,初の大規模o-ranテストフレームワークである。
Colosseumワイヤレスネットワークエミュレータのスケールと計算能力に基づいて、ColO-RANはO-RANコンポーネント、プログラム可能なベースステーション、および"ワイヤレスデータファクトリ"を使用した大規模ML研究を可能にする。
具体的には,drlベースのランスライシング制御,スケジューリング,オンラインモデルトレーニングのための3つのxappを設計・開発し,ソフトウォードベースステーション7,ユーザ42のセルラーネットワーク上での性能評価を行った。
最後に,屋内プログラム可能なテストベッドであるarenaにデプロイすることで,さまざまなプラットフォームへのcoro-ranの移植性を示す。
大規模評価の結果は,drlに基づく適応制御の利点と課題を浮き彫りにした。
また、無線DRLパイプラインの開発、データ分析からDRLエージェントの設計、ライブRANでのトレーニングに関連するトレードオフに関する洞察も提供する。
ColO-RANと収集した大規模なデータセットは、研究コミュニティで公開される予定である。
関連論文リスト
- SERL: A Software Suite for Sample-Efficient Robotic Reinforcement
Learning [85.21378553454672]
筆者らは,報酬の計算と環境のリセットを行う手法とともに,効率的なオフ・ポリティクス・ディープ・RL法を含むライブラリを開発した。
我々は,PCBボードアセンブリ,ケーブルルーティング,オブジェクトの移動に関するポリシを,非常に効率的な学習を実現することができることを発見した。
これらの政策は完全な成功率またはほぼ完全な成功率、摂動下でさえ極端な堅牢性を実現し、突発的な堅牢性回復と修正行動を示す。
論文 参考訳(メタデータ) (2024-01-29T10:01:10Z) - Katakomba: Tools and Benchmarks for Data-Driven NetHack [52.0035089982277]
NetHackは強化学習研究のフロンティアとして知られている。
採用には、リソースワイド、実装ワイド、ベンチマークワイドの3つの大きな障害がある、と私たちは主張しています。
オフラインの強化学習コミュニティに慣れ親しんだワークフローの基礎を提供するオープンソースライブラリを開発した。
論文 参考訳(メタデータ) (2023-06-14T22:50:25Z) - Sparsity-Aware Intelligent Massive Random Access Control in Open RAN: A
Reinforcement Learning Based Approach [61.74489383629319]
新たなOpen Radio Access Network(O-RAN)におけるデバイスの大量ランダムアクセスは、アクセス制御と管理に大きな課題をもたらします。
閉ループアクセス制御の強化学習(RL)支援方式を提案する。
深部RL支援SAUDは、連続的かつ高次元の状態と行動空間を持つ複雑な環境を解決するために提案されている。
論文 参考訳(メタデータ) (2023-03-05T12:25:49Z) - Programmable and Customized Intelligence for Traffic Steering in 5G
Networks Using Open RAN Architectures [16.48682480842328]
5G以降のモバイルネットワークは、前例のない規模で異質なユースケースをサポートする。
無線アクセスネットワーク(RAN)のこのようなきめ細かい制御は、現在のセルアーキテクチャでは不可能である。
クローズドループ制御を可能とし,ユーザレベルでRANをデータ駆動でインテリジェントに最適化するオープンアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-09-28T15:31:06Z) - Intelligent Closed-loop RAN Control with xApps in OpenRAN Gym [28.37831674645226]
オープンRANのインテリジェント閉ループ制御のためのAI/MLソリューションの設計方法について論じる。
我々は、OpenRAN Gymを通じて、O-RAN RAN Intelligent Controller (RIC)上でインスタンス化されたxAppにこれらのソリューションを組み込む方法を示す。
論文 参考訳(メタデータ) (2022-08-31T14:09:12Z) - OpenRAN Gym: AI/ML Development, Data Collection, and Testing for O-RAN
on PAWR Platforms [28.37831674645226]
OpenRAN Gymは、データ収集、設計、プロトタイピング、エンドツーエンドのデータ駆動制御ソリューションのテストのための統一的でオープンで、O-RAN準拠の実験ツールボックスである。
OpenRAN Gymとそのソフトウェアコンポーネントはオープンソースであり、研究コミュニティで公開されている。
論文 参考訳(メタデータ) (2022-07-25T17:22:25Z) - MR-iNet Gym: Framework for Edge Deployment of Deep Reinforcement
Learning on Embedded Software Defined Radio [3.503370263836711]
我々は、GPU組み込みソフトウェア定義無線(SDR)上に、深層強化学習に基づく電力制御エージェントを設計、展開する。
実現可能性を証明するため,コード分割多重アクセス(DS-CDMA)に基づくLPI/Dトランシーバにおける分散電力制御の問題を検討する。
我々は、ハードウェアテストベッドを再現するシナリオで、この ns3-gym シミュレーション環境における電力制御DRLエージェントを訓練する。
論文 参考訳(メタデータ) (2022-04-09T16:28:43Z) - RLOps: Development Life-cycle of Reinforcement Learning Aided Open RAN [4.279828770269723]
この記事では、機械学習(ML)の原則、特にOpen RANスタックに関連する強化学習(RL)を紹介します。
開発ライフサイクルを通じてML/RLモデルが直面する課題を分類する。
モデル仕様,開発・蒸留,生産環境提供,運用監視,安全・セキュリティ,データエンジニアリングプラットフォームなど,RLOPSの基本部分について論じる。
論文 参考訳(メタデータ) (2021-11-12T22:57:09Z) - DriverGym: Democratising Reinforcement Learning for Autonomous Driving [75.91049219123899]
本稿では,自律運転のための強化学習アルゴリズムを開発するオープンソース環境であるDeadGymを提案する。
DriverGymは1000時間以上の専門家ログデータへのアクセスを提供し、リアクティブおよびデータ駆動エージェントの動作をサポートする。
広範かつフレキシブルなクローズループ評価プロトコルを用いて,実世界のデータ上でRLポリシーの性能を容易に検証できる。
論文 参考訳(メタデータ) (2021-11-12T11:47:08Z) - Reinforcement Learning for Datacenter Congestion Control [50.225885814524304]
渋滞制御アルゴリズムの成功は、レイテンシとネットワーク全体のスループットを劇的に改善する。
今日まで、このような学習ベースのアルゴリズムはこの領域で実用的な可能性を示さなかった。
実世界のデータセンターネットワークの様々な構成に一般化することを目的としたRLに基づくアルゴリズムを考案する。
本稿では,この手法が他のRL手法よりも優れており,トレーニング中に見られなかったシナリオに一般化可能であることを示す。
論文 参考訳(メタデータ) (2021-02-18T13:49:28Z) - Deep Learning for Ultra-Reliable and Low-Latency Communications in 6G
Networks [84.2155885234293]
まず,データ駆動型教師付き深層学習と深部強化学習をURLLCに適用する方法を概説する。
このようなオープンな問題に対処するために、デバイスインテリジェンス、エッジインテリジェンス、およびURLLCのためのクラウドインテリジェンスを可能にするマルチレベルアーキテクチャを開発した。
論文 参考訳(メタデータ) (2020-02-22T14:38:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。