論文の概要: RayNet: A Simulation Platform for Developing Reinforcement
Learning-Driven Network Protocols
- arxiv url: http://arxiv.org/abs/2302.04519v1
- Date: Thu, 9 Feb 2023 09:27:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-10 16:19:47.827200
- Title: RayNet: A Simulation Platform for Developing Reinforcement
Learning-Driven Network Protocols
- Title(参考訳): raynet:強化学習駆動ネットワークプロトコル開発のためのシミュレーションプラットフォーム
- Authors: Luca Giacomoni, Basil Benny, George Parisis
- Abstract要約: RayNetは、学習ベースのネットワークプロトコルを開発するためのスケーラブルで適応可能なシミュレーションフレームワークである。
RayNetは、完全にプログラム可能なネットワークシミュレータであるOMNeT++と、分散強化学習のためのスケーラブルなトレーニングプラットフォームであるRay/RLlibを統合している。
- 参考スコア(独自算出の注目度): 1.4502611532302039
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Reinforcement Learning has gained significant momentum in the development of
network protocols. However, learning-based protocols are still in their
infancy, and substantial research is required to build deployable solutions.
Developing a protocol based on reinforcement learning is a complex and
challenging process that involves several model design decisions and requires
significant training and evaluation in real or realistic network topologies.
Network simulators offer RL-based protocols a highly effective training
environment, because simulations are deterministic and can run in parallel. In
this paper, we introduce RayNet, a scalable and adaptable simulation framework
for the development of learning-based network protocols. RayNet integrates
OMNeT++, a fully programmable network simulator, with Ray/RLlib, a scalable
training platform for distributed reinforcement learning. RayNet facilitates
the methodical development of RL-based network protocols with minimal overhead.
We have developed a congestion control use case and present evidence that
RayNet can be a valuable framework for the computer networks research
community.
- Abstract(参考訳): 強化学習はネットワークプロトコルの開発において大きな勢いを増している。
しかし、学習ベースのプロトコルはまだ初期段階であり、デプロイ可能なソリューションを構築するにはかなりの研究が必要である。
強化学習に基づくプロトコルの開発は、いくつかのモデル設計の決定を伴う複雑で困難なプロセスであり、実または現実的なネットワークトポロジーにおいて重要なトレーニングと評価を必要とする。
ネットワークシミュレータは、シミュレーションが決定論的で並列に実行できるため、rlベースのプロトコルを非常に効果的なトレーニング環境として提供する。
本稿では,学習ベースのネットワークプロトコルを開発するためのスケーラブルで適応可能なシミュレーションフレームワークraynetを提案する。
RayNetは、完全にプログラム可能なネットワークシミュレータであるOMNeT++と、分散強化学習のためのスケーラブルなトレーニングプラットフォームであるRay/RLlibを統合している。
raynetは最小のオーバーヘッドでrlベースのネットワークプロトコルの方法論的な開発を促進する。
我々は渋滞制御のユースケースを開発し,raynet がコンピュータネットワーク研究コミュニティにとって有用なフレームワークであることを示す。
関連論文リスト
- RLLTE: Long-Term Evolution Project of Reinforcement Learning [48.181733263496746]
本稿では,RLLTEについて紹介する。RLLTEは長期的進化であり,高度にモジュール化された,強化学習研究と応用のためのオープンソースフレームワークである。
トップノーチアルゴリズムの実装を提供するだけでなく、RLLTEはアルゴリズム開発のためのツールキットとしても機能する。
RLLTEは、RLエンジニアリングの基準を設定し、産業や学界に高い刺激を与えると期待されている。
論文 参考訳(メタデータ) (2023-09-28T12:30:37Z) - A Neuromorphic Architecture for Reinforcement Learning from Real-Valued
Observations [0.34410212782758043]
強化学習(RL)は複雑な環境における意思決定のための強力なフレームワークを提供する。
本稿では,実測値を用いてRL問題を解くための新しいスパイキングニューラルネットワーク(SNN)アーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-07-06T12:33:34Z) - MARLIN: Soft Actor-Critic based Reinforcement Learning for Congestion
Control in Real Networks [63.24965775030673]
そこで本研究では,汎用的な渋滞制御(CC)アルゴリズムを設計するための新しい強化学習(RL)手法を提案する。
我々の解であるMARLINは、Soft Actor-Criticアルゴリズムを用いてエントロピーとリターンの両方を最大化する。
我々は,MARLINを実ネットワーク上で訓練し,実ミスマッチを克服した。
論文 参考訳(メタデータ) (2023-02-02T18:27:20Z) - LCRL: Certified Policy Synthesis via Logically-Constrained Reinforcement
Learning [78.2286146954051]
LCRLは未知決定プロセス(MDP)上でのモデルフリー強化学習(RL)アルゴリズムを実装している
本稿では,LCRLの適用性,使いやすさ,拡張性,性能を示すケーススタディを提案する。
論文 参考訳(メタデータ) (2022-09-21T13:21:00Z) - FORLORN: A Framework for Comparing Offline Methods and Reinforcement
Learning for Optimization of RAN Parameters [0.0]
本稿では,ネットワーク環境におけるRLエージェントの性能をns-3でシミュレートする新しいフレームワークを提案する。
このフレームワークでは、ドメイン固有の知識を持たないRLエージェントが、静的シナリオにおけるオフライン最適化に適合するように、Radio Access Network(RAN)パラメータを効率的に調整する方法を学習できることを実証する。
論文 参考訳(メタデータ) (2022-09-08T12:58:09Z) - Federated Deep Reinforcement Learning for the Distributed Control of
NextG Wireless Networks [16.12495409295754]
次世代(NextG)ネットワークは、拡張現実(AR)やコネクテッド・自律走行車といった、インターネットの触覚を必要とするアプリケーションをサポートすることが期待されている。
データ駆動アプローチは、現在の運用条件に適応するネットワークの能力を改善することができる。
深部RL(DRL)は複雑な環境においても良好な性能を発揮することが示されている。
論文 参考訳(メタデータ) (2021-12-07T03:13:20Z) - DRL-based Slice Placement Under Non-Stationary Conditions [0.8459686722437155]
我々は,非定常プロセスに従ってスライス要求が到着するという仮定の下で,最適ネットワークスライス配置のためのオンライン学習を検討する。
具体的には、2つの純DRLアルゴリズムと2つのハイブリッドDRLヒューリスティックアルゴリズムを提案する。
提案したハイブリッドDRLヒューリスティックアルゴリズムは、収束を達成するために、純DRLよりも少ない3桁の学習エピソードを必要とすることを示す。
論文 参考訳(メタデータ) (2021-08-05T10:05:12Z) - RL-DARTS: Differentiable Architecture Search for Reinforcement Learning [62.95469460505922]
我々は、強化学習(RL)における微分可能なアーキテクチャ探索(DARTS)の最初の応用の1つであるRL-DARTSを紹介する。
画像エンコーダをDARTSスーパーネットに置き換えることにより、検索方法はサンプリング効率が高く、余分な計算資源が最小限必要であり、また、既存のコードに小さな変更を加える必要がなく、オフ・ポリティクスとオン・ポリティクスのRLアルゴリズムとも互換性がある。
スーパーネットはより優れたセルを徐々に学習し、手作業で設計したポリシーに対して高い競争力を持つ代替アーキテクチャへとつながり、RLポリシーの以前の設計選択も検証できることを示す。
論文 参考訳(メタデータ) (2021-06-04T03:08:43Z) - Learning to Prune Deep Neural Networks via Reinforcement Learning [64.85939668308966]
PuRLは、ニューラルネットワークのプルーニングのためのディープ強化学習ベースのアルゴリズムである。
現在の最先端の手法に匹敵する幅と精度を実現している。
論文 参考訳(メタデータ) (2020-07-09T13:06:07Z) - Review, Analysis and Design of a Comprehensive Deep Reinforcement
Learning Framework [6.527722484694189]
本稿では,コネクテッド・ザ・ドット・ディープ・RLアーキテクチャの設計において重要な役割を果たす包括的ソフトウェア・フレームワークを提案する。
我々は、柔軟性、堅牢性、スケーラビリティを厳格に保証する、深いRLベースのソフトウェアフレームワークを設計、開発しました。
論文 参考訳(メタデータ) (2020-02-27T02:38:47Z) - Deep Learning for Ultra-Reliable and Low-Latency Communications in 6G
Networks [84.2155885234293]
まず,データ駆動型教師付き深層学習と深部強化学習をURLLCに適用する方法を概説する。
このようなオープンな問題に対処するために、デバイスインテリジェンス、エッジインテリジェンス、およびURLLCのためのクラウドインテリジェンスを可能にするマルチレベルアーキテクチャを開発した。
論文 参考訳(メタデータ) (2020-02-22T14:38:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。