論文の概要: Accelerating Deep Reinforcement Learning for Digital Twin Network
Optimization with Evolutionary Strategies
- arxiv url: http://arxiv.org/abs/2202.00360v1
- Date: Tue, 1 Feb 2022 11:56:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-02 19:42:27.789995
- Title: Accelerating Deep Reinforcement Learning for Digital Twin Network
Optimization with Evolutionary Strategies
- Title(参考訳): 進化戦略を用いたデジタル双対ネットワーク最適化のための深層強化学習の高速化
- Authors: Carlos G\"uemes-Palau (1), Paul Almasan (1), Shihan Xiao (2), Xiangle
Cheng (2), Xiang Shi (2), Pere Barlet-Ros (1), Albert Cabellos-Aparicio (1)
((1) Barcelona Neural Networking Center, Universitat Polit\`ecnica de
Catalunya, Spain (2) Network Technology Lab., Huawei Technologies Co., Ltd.)
- Abstract要約: コミュニティは効率的なネットワーク管理の鍵となる手段としてDigital Twin Networks (DTN)を提案した。
Deep Reinforcement Learning (DRL) は,ネットワーク最適化問題の解法として高い性能を示した。
本稿では,経路最適化問題の解法として,進化的戦略(ES)を用いてDRLエージェントの訓練を行う。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The recent growth of emergent network applications (e.g., satellite networks,
vehicular networks) is increasing the complexity of managing modern
communication networks. As a result, the community proposed the Digital Twin
Networks (DTN) as a key enabler of efficient network management. Network
operators can leverage the DTN to perform different optimization tasks (e.g.,
Traffic Engineering, Network Planning). Deep Reinforcement Learning (DRL)
showed a high performance when applied to solve network optimization problems.
In the context of DTN, DRL can be leveraged to solve optimization problems
without directly impacting the real-world network behavior. However, DRL scales
poorly with the problem size and complexity. In this paper, we explore the use
of Evolutionary Strategies (ES) to train DRL agents for solving a routing
optimization problem. The experimental results show that ES achieved a training
time speed-up of 128 and 6 for the NSFNET and GEANT2 topologies respectively.
- Abstract(参考訳): 近年の緊急ネットワークアプリケーション(衛星ネットワーク、車両ネットワークなど)の成長は、現代の通信ネットワークの管理の複雑さを増している。
その結果、コミュニティは効率的なネットワーク管理の鍵となる手段としてDigital Twin Networks (DTN)を提案した。
ネットワークオペレータはDTNを利用して異なる最適化タスク(例えば、トラフィックエンジニアリング、ネットワークプランニング)を実行することができる。
Deep Reinforcement Learning (DRL) は,ネットワーク最適化問題の解法として高い性能を示した。
DTNの文脈では、DRLは現実世界のネットワーク動作に直接影響を与えずに最適化問題を解決するために利用することができる。
しかし、DRLは問題の大きさと複雑さに乏しい。
本稿では,経路最適化問題の解法として,進化的戦略(ES)を用いてDRLエージェントの訓練を行う。
実験の結果, ES は NSFNET と GEANT2 のトポロジーでそれぞれ 18 と 6 のトレーニングタイムアップを達成した。
関連論文リスト
- A Deep Reinforcement Learning Approach for Adaptive Traffic Routing in
Next-gen Networks [1.1586742546971471]
次世代ネットワークは、トラフィックダイナミクスに基づいたネットワーク構成を自動化し、適応的に調整する必要がある。
交通政策を決定する伝統的な手法は、通常は手作りのプログラミング最適化とアルゴリズムに基づいている。
我々は適応的なトラフィックルーティングのための深層強化学習(DRL)アプローチを開発する。
論文 参考訳(メタデータ) (2024-02-07T01:48:29Z) - Solving Large-scale Spatial Problems with Convolutional Neural Networks [88.31876586547848]
大規模空間問題に対する学習効率を向上させるために移動学習を用いる。
畳み込みニューラルネットワーク (CNN) は, 信号の小さな窓で訓練できるが, 性能劣化の少ない任意の大信号で評価できる。
論文 参考訳(メタデータ) (2023-06-14T01:24:42Z) - MARLIN: Soft Actor-Critic based Reinforcement Learning for Congestion
Control in Real Networks [63.24965775030673]
そこで本研究では,汎用的な渋滞制御(CC)アルゴリズムを設計するための新しい強化学習(RL)手法を提案する。
我々の解であるMARLINは、Soft Actor-Criticアルゴリズムを用いてエントロピーとリターンの両方を最大化する。
我々は,MARLINを実ネットワーク上で訓練し,実ミスマッチを克服した。
論文 参考訳(メタデータ) (2023-02-02T18:27:20Z) - Multi-agent Reinforcement Learning with Graph Q-Networks for Antenna
Tuning [60.94661435297309]
モバイルネットワークの規模は、手作業による介入や手作業による戦略を使ってアンテナパラメータの最適化を困難にしている。
本研究では,モバイルネットワーク構成をグローバルに最適化するマルチエージェント強化学習アルゴリズムを提案する。
シミュレーション環境におけるアンテナ傾き調整問題とジョイント傾き・電力制御問題に対するアルゴリズムの性能を実証的に示す。
論文 参考訳(メタデータ) (2023-01-20T17:06:34Z) - A Reinforcement Learning Approach to Optimize Available Network
Bandwidth Utilization [3.254879465902239]
深部強化学習(RL)を用いた並列TCPストリームの最適数を求めるための新しい手法を提案する。
我々のRLアルゴリズムは、最大15%高いスループットを達成しながら、ほぼ最適解を40%高速に見つけることができる。
論文 参考訳(メタデータ) (2022-11-22T02:00:05Z) - RDRN: Recursively Defined Residual Network for Image Super-Resolution [58.64907136562178]
深部畳み込みニューラルネットワーク(CNN)は、単一画像超解像において顕著な性能を得た。
本稿では,注目ブロックを効率的に活用する新しいネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-11-17T11:06:29Z) - Learning an Adaptive Forwarding Strategy for Mobile Wireless Networks:
Resource Usage vs. Latency [2.608874253011]
我々は、モバイルネットワークのためのスケーラブルで汎用的な単一コピールーティング戦略を学ぶために、深層強化学習を使用します。
我々の学習した単一コピールーティング戦略は、最適戦略を除いて遅延の点で他のすべての戦略より優れていることを示す。
論文 参考訳(メタデータ) (2022-07-23T01:17:23Z) - Semantic-Aware Collaborative Deep Reinforcement Learning Over Wireless
Cellular Networks [82.02891936174221]
複数のエージェントが無線ネットワーク上で協調できるコラボレーティブディープ強化学習(CDRL)アルゴリズムは有望なアプローチである。
本稿では,リソース制約のある無線セルネットワーク上で,意味的にリンクされたDRLタスクを持つ未学習エージェントのグループを効率的に協調させる,新しい意味認識型CDRL手法を提案する。
論文 参考訳(メタデータ) (2021-11-23T18:24:47Z) - Offline Contextual Bandits for Wireless Network Optimization [107.24086150482843]
本稿では,ユーザ要求の変化に応じて,ネットワーク内の各セルの構成パラメータを自動的に調整するポリシの学習方法について検討する。
私たちのソリューションは、オフライン学習のための既存の方法を組み合わせて、この文脈で生じる重要な課題を克服する原則的な方法でそれらを適応します。
論文 参考訳(メタデータ) (2021-11-11T11:31:20Z) - ENERO: Efficient Real-Time Routing Optimization [2.830334160074889]
交通工学(TE)ソリューションは、高性能なリアルタイムネットワーク運用を実現する必要がある。
現在のTE技術は手工芸品や計算コストの高い解法に依存している。
本稿では,効率的なリアルタイムTEエンジンであるEeroを提案する。
論文 参考訳(メタデータ) (2021-09-22T17:53:30Z) - Joint User Association and Power Allocation in Heterogeneous Ultra Dense
Network via Semi-Supervised Representation Learning [22.725452912879376]
HUDN(Heterogeneous Ultra-Dense Network)は、高接続密度と超高データレートを実現する。
本稿では,統合ユーザアソシエーションと電力制御問題を解決するための新しいアイデアを提案する。
グラフニューラルネットワーク(GNN)を訓練し、半教師付き学習を用いてこの表現関数にアプローチします。
論文 参考訳(メタデータ) (2021-03-29T06:39:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。