論文の概要: CFR-RL: Traffic Engineering with Reinforcement Learning in SDN
- arxiv url: http://arxiv.org/abs/2004.11986v1
- Date: Fri, 24 Apr 2020 20:46:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-10 04:19:29.066114
- Title: CFR-RL: Traffic Engineering with Reinforcement Learning in SDN
- Title(参考訳): CFR-RL:SDNにおける強化学習による交通工学
- Authors: Junjie Zhang, Minghao Ye, Zehua Guo, Chen-Yu Yen, H. Jonathan Chao
- Abstract要約: 本稿では,各トラフィック行列に対して重要なフローを自動的に選択するポリシーを学習する強化型スキームを提案する。
CFR-RLは、全トラフィックの10%-21.3%だけをリルートすることで、ほぼ最適性能を達成する。
- 参考スコア(独自算出の注目度): 5.718975715943091
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Traditional Traffic Engineering (TE) solutions can achieve the optimal or
near-optimal performance by rerouting as many flows as possible. However, they
do not usually consider the negative impact, such as packet out of order, when
frequently rerouting flows in the network. To mitigate the impact of network
disturbance, one promising TE solution is forwarding the majority of traffic
flows using Equal-Cost Multi-Path (ECMP) and selectively rerouting a few
critical flows using Software-Defined Networking (SDN) to balance link
utilization of the network. However, critical flow rerouting is not trivial
because the solution space for critical flow selection is enormous. Moreover,
it is impossible to design a heuristic algorithm for this problem based on
fixed and simple rules, since rule-based heuristics are unable to adapt to the
changes of the traffic matrix and network dynamics. In this paper, we propose
CFR-RL (Critical Flow Rerouting-Reinforcement Learning), a Reinforcement
Learning-based scheme that learns a policy to select critical flows for each
given traffic matrix automatically. CFR-RL then reroutes these selected
critical flows to balance link utilization of the network by formulating and
solving a simple Linear Programming (LP) problem. Extensive evaluations show
that CFR-RL achieves near-optimal performance by rerouting only 10%-21.3% of
total traffic.
- Abstract(参考訳): 従来の交通工学(TE)ソリューションは、可能な限り多くのフローをリルーティングすることで、最適またはほぼ最適のパフォーマンスを達成することができる。
しかし、彼らは通常、ネットワーク内のフローを頻繁に再ルーティングする場合、パケットの整合性などの負の影響を考慮しない。
ネットワーク障害の影響を軽減するため、ある有望なTEソリューションは、Equal-Cost Multi-Path(ECMP)を使用してトラフィックフローの大部分を転送し、Software-Defined Networking(SDN)を使用していくつかのクリティカルフローを選択的にリルーティングし、ネットワークのリンク利用のバランスをとる。
しかし,臨界流選択の解空間は巨大であるため,臨界流の再帰は容易ではない。
さらに、規則に基づくヒューリスティックは、トラフィック行列やネットワークダイナミクスの変化に適応できないため、固定的かつ単純なルールに基づいて、この問題に対するヒューリスティックなアルゴリズムを設計することは不可能である。
本稿では,トラヒックマトリックス毎にクリティカルフローを自動的に選択するポリシを学習する強化学習に基づくcfr-rl(critical flow rerouting-reinforcement learning)を提案する。
CFR-RLは、これらの選択されたクリティカルフローを除去し、単純な線形プログラミング(LP)問題を定式化し解決することで、ネットワークのリンク利用のバランスをとる。
大規模な評価では、CFR-RLは全トラフィックの10%-21.3%だけをリルーティングすることで、ほぼ最適性能を達成している。
関連論文リスト
- Intelligent Routing Algorithm over SDN: Reusable Reinforcement Learning Approach [1.799933345199395]
本稿では,再利用可能なRLSRルーティングアルゴリズム RLSR-Routing をSDN上で開発する。
我々のアルゴリズムは従来の手法よりもロードバランシングの点で優れた性能を示している。
また、複数のトラフィック要求のパスを見つける際には、再利用不可能なRLアプローチよりも早く収束する。
論文 参考訳(メタデータ) (2024-09-23T17:15:24Z) - A Deep Reinforcement Learning Approach for Adaptive Traffic Routing in
Next-gen Networks [1.1586742546971471]
次世代ネットワークは、トラフィックダイナミクスに基づいたネットワーク構成を自動化し、適応的に調整する必要がある。
交通政策を決定する伝統的な手法は、通常は手作りのプログラミング最適化とアルゴリズムに基づいている。
我々は適応的なトラフィックルーティングのための深層強化学習(DRL)アプローチを開発する。
論文 参考訳(メタデータ) (2024-02-07T01:48:29Z) - MARLIN: Soft Actor-Critic based Reinforcement Learning for Congestion
Control in Real Networks [63.24965775030673]
そこで本研究では,汎用的な渋滞制御(CC)アルゴリズムを設計するための新しい強化学習(RL)手法を提案する。
我々の解であるMARLINは、Soft Actor-Criticアルゴリズムを用いてエントロピーとリターンの両方を最大化する。
我々は,MARLINを実ネットワーク上で訓練し,実ミスマッチを克服した。
論文 参考訳(メタデータ) (2023-02-02T18:27:20Z) - Robust Path Selection in Software-defined WANs using Deep Reinforcement
Learning [18.586260468459386]
本稿では、経路計算と経路更新のオーバーヘッドを考慮した、ネットワーク内の経路選択を行うデータ駆動アルゴリズムを提案する。
提案手法は,ECMPなどの従来のTE方式に比べてリンク利用率を40%削減できる。
論文 参考訳(メタデータ) (2022-12-21T16:08:47Z) - Teal: Learning-Accelerated Optimization of WAN Traffic Engineering [68.7863363109948]
本稿では,GPUの並列処理能力を活用してTE制御を高速化する学習型TEアルゴリズムTealを提案する。
問題スケールの削減と学習のトラクタビリティ向上のために,Tealはマルチエージェント強化学習(RL)アルゴリズムを用いて,各トラフィック要求を独立に割り当てる。
他のTE加速方式と比較して、Tealは需要を6~32%増やし、197~625倍のスピードアップを達成している。
論文 参考訳(メタデータ) (2022-10-25T04:46:30Z) - Lyapunov Function Consistent Adaptive Network Signal Control with Back
Pressure and Reinforcement Learning [9.797994846439527]
本研究では、それぞれ特定のリャプノフ関数を定義するリアプノフ制御理論を用いた統一的なフレームワークを提案する。
Lyapunov理論の知見に基づいて、この研究は強化学習(Reinforcement Learning, RL)に基づくネットワーク信号制御のための報酬関数を設計する。
提案アルゴリズムは, 純旅客車流および貨物を含む異種交通流下での従来のRL法およびRL法と比較した。
論文 参考訳(メタデータ) (2022-10-06T00:22:02Z) - AI-aided Traffic Control Scheme for M2M Communications in the Internet
of Vehicles [61.21359293642559]
交通のダイナミクスと異なるIoVアプリケーションの異種要求は、既存のほとんどの研究では考慮されていない。
本稿では,ハイブリッド交通制御方式とPPO法を併用して検討する。
論文 参考訳(メタデータ) (2022-03-05T10:54:05Z) - Federated Learning over Wireless IoT Networks with Optimized
Communication and Resources [98.18365881575805]
協調学習技術のパラダイムとしてのフェデレートラーニング(FL)は研究の注目を集めている。
無線システム上での高速応答および高精度FLスキームの検証が重要である。
提案する通信効率のよいフェデレーション学習フレームワークは,強い線形速度で収束することを示す。
論文 参考訳(メタデータ) (2021-10-22T13:25:57Z) - Road Network Guided Fine-Grained Urban Traffic Flow Inference [108.64631590347352]
粗いトラフィックからのきめ細かなトラフィックフローの正確な推測は、新たな重要な問題である。
本稿では,道路ネットワークの知識を活かした新しい道路対応交通流磁化器(RATFM)を提案する。
提案手法は,高品質なトラフィックフローマップを作成できる。
論文 参考訳(メタデータ) (2021-09-29T07:51:49Z) - Reinforcement Learning for Datacenter Congestion Control [50.225885814524304]
渋滞制御アルゴリズムの成功は、レイテンシとネットワーク全体のスループットを劇的に改善する。
今日まで、このような学習ベースのアルゴリズムはこの領域で実用的な可能性を示さなかった。
実世界のデータセンターネットワークの様々な構成に一般化することを目的としたRLに基づくアルゴリズムを考案する。
本稿では,この手法が他のRL手法よりも優れており,トレーニング中に見られなかったシナリオに一般化可能であることを示す。
論文 参考訳(メタデータ) (2021-02-18T13:49:28Z) - Dynamic RAN Slicing for Service-Oriented Vehicular Networks via
Constrained Learning [40.5603189901241]
品質の異なる車両用インターネット(IoV)サービスにおける無線アクセスネットワーク(RAN)スライシング問題について検討する。
無線スペクトルと演算資源を動的に割り当てる動的RANスライシングフレームワークを提案する。
RAWSは,ベンチマークと比較すると,要求を高い確率で満たしながら,システムコストを効果的に削減できることを示す。
論文 参考訳(メタデータ) (2020-12-03T15:08:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。