論文の概要: Deep Reinforcement Learning for Scheduling and Power Allocation in a 5G
Urban Mesh
- arxiv url: http://arxiv.org/abs/2210.01423v1
- Date: Tue, 4 Oct 2022 07:23:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-05 15:35:52.204000
- Title: Deep Reinforcement Learning for Scheduling and Power Allocation in a 5G
Urban Mesh
- Title(参考訳): 5G都市メッシュにおけるスケジューリングとパワーアロケーションのための深層強化学習
- Authors: Barak Gahtan, Reuven Cohen, Alex M. Bronstein and Gil Kedar
- Abstract要約: マルチホップミリ波(mmWave)メッシュ上でのリアルタイム流れのルーティングとスケジューリングの問題について検討する。
我々は,各時間帯にどのmWaveリンクのサブセットをアクティベートすべきかを決定するモデルフリーな深層強化学習アルゴリズムを開発した。
- 参考スコア(独自算出の注目度): 9.20150441025231
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study the problem of routing and scheduling of real-time flows over a
multi-hop millimeter wave (mmWave) mesh. We develop a model-free deep
reinforcement learning algorithm that determines which subset of the mmWave
links should be activated during each time slot and using what power level. The
proposed algorithm, called Adaptive Activator RL (AARL), can handle a variety
of network topologies, network loads, and interference models, as well as adapt
to different workloads. We demonstrate the operation of AARL on several
topologies: a small topology with 10 links, a moderately-sized mesh with 48
links, and a large topology with 96 links. For each topology, the results of
AARL are compared to those of a greedy scheduling algorithm. AARL is shown to
outperform the greedy algorithm in two aspects. First, its schedule obtains
higher goodput. Second, and even more importantly, while the run time of the
greedy algorithm renders it impractical for real-time scheduling, the run time
of AARL is suitable for meeting the time constraints of typical 5G networks.
- Abstract(参考訳): マルチホップミリ波(mmWave)メッシュ上でのリアルタイム流れのルーティングとスケジューリングの問題について検討する。
我々は,各時間帯と電力レベルを用いて,mmWaveリンクのどのサブセットをアクティベートすべきかを決定する,モデルフリーの深部強化学習アルゴリズムを開発した。
提案されたアルゴリズムはAdaptive Activator RL (AARL)と呼ばれ、さまざまなネットワークトポロジ、ネットワーク負荷、干渉モデルを扱うとともに、さまざまなワークロードに適応することができる。
10個のリンクを持つ小さなトポロジー、48個のリンクを持つ中程度のメッシュ、96個のリンクを持つ大きなトポロジーである。
各トポロジについて、AARLの結果は、greedyスケジューリングアルゴリズムの結果と比較される。
AARLはグリーディアルゴリズムを2つの面で上回ることを示す。
まず、そのスケジュールは高い出力を得る。
第二に、さらに重要なことは、greedyアルゴリズムの実行時間はリアルタイムスケジューリングには不実用であるが、AARLの実行時間は典型的な5Gネットワークの時間制約を満たすのに適していることである。
関連論文リスト
- FusionLLM: A Decentralized LLM Training System on Geo-distributed GPUs with Adaptive Compression [55.992528247880685]
分散トレーニングは、システム設計と効率に関する重要な課題に直面します。
大規模深層ニューラルネットワーク(DNN)のトレーニング用に設計・実装された分散トレーニングシステムFusionLLMを提案する。
本システムと手法は,収束性を確保しつつ,ベースライン法と比較して1.45~9.39倍の高速化を実現可能であることを示す。
論文 参考訳(メタデータ) (2024-10-16T16:13:19Z) - Bandwidth Optimal Pipeline Schedule for Collective Communication [6.341156131901433]
我々は,任意のネットワークトポロジ上で,帯域幅の最適な全ゲザ/リデューサ・スキャッタを生成するために,強ゲザ時間アルゴリズムを提案する。
パイプラインは、与えられたトポロジ上で最高の帯域幅を達成するスケジュールを構築する。
論文 参考訳(メタデータ) (2023-05-29T07:04:56Z) - A Reinforcement Learning Approach to Optimize Available Network
Bandwidth Utilization [3.254879465902239]
深部強化学習(RL)を用いた並列TCPストリームの最適数を求めるための新しい手法を提案する。
我々のRLアルゴリズムは、最大15%高いスループットを達成しながら、ほぼ最適解を40%高速に見つけることができる。
論文 参考訳(メタデータ) (2022-11-22T02:00:05Z) - Teal: Learning-Accelerated Optimization of WAN Traffic Engineering [68.7863363109948]
本稿では,GPUの並列処理能力を活用してTE制御を高速化する学習型TEアルゴリズムTealを提案する。
問題スケールの削減と学習のトラクタビリティ向上のために,Tealはマルチエージェント強化学習(RL)アルゴリズムを用いて,各トラフィック要求を独立に割り当てる。
他のTE加速方式と比較して、Tealは需要を6~32%増やし、197~625倍のスピードアップを達成している。
論文 参考訳(メタデータ) (2022-10-25T04:46:30Z) - Real-Time GPU-Accelerated Machine Learning Based Multiuser Detection for
5G and Beyond [70.81551587109833]
非線形ビームフォーミングフィルタは、大規模な接続を伴う定常シナリオにおいて、線形アプローチを著しく上回る。
主な課題の1つは、これらのアルゴリズムのリアルタイム実装である。
本稿では,大規模並列化によるAPSMに基づくアルゴリズムの高速化について検討する。
論文 参考訳(メタデータ) (2022-01-13T15:20:45Z) - GCNScheduler: Scheduling Distributed Computing Applications using Graph
Convolutional Networks [12.284934135116515]
グラフ畳み込み型ネットワークベーススケジューラ(GCNScheduler)を提案する。
タスク間データ依存関係構造とネットワーク設定を慎重に入力グラフに統合することにより、GCNSchedulerは所定の目的のためにタスクを効率的にスケジュールすることができる。
従来のHEFTアルゴリズムよりもマインパンが良く、スループット指向のHEFTとほぼ同じスループットであることを示す。
論文 参考訳(メタデータ) (2021-10-22T01:54:10Z) - Better than the Best: Gradient-based Improper Reinforcement Learning for
Network Scheduling [60.48359567964899]
パケット遅延を最小限に抑えるため,制約付き待ち行列ネットワークにおけるスケジューリングの問題を考える。
我々は、利用可能な原子ポリシーよりも優れたスケジューラを生成するポリシー勾配に基づく強化学習アルゴリズムを使用する。
論文 参考訳(メタデータ) (2021-05-01T10:18:34Z) - ADOM: Accelerated Decentralized Optimization Method for Time-Varying
Networks [124.33353902111939]
本稿では,時間変動ネットワーク上の滑らかかつ強凸分散最適化のための高速化手法である adom を提案する。
ネットワーク構造のみに依存する一定の要因まで、その通信は加速されたNesterovメソッドのそれと同じです。
論文 参考訳(メタデータ) (2021-02-18T09:37:20Z) - Deep Reinforcement Learning for Resource Constrained Multiclass
Scheduling in Wireless Networks [0.0]
セットアップでは、ランダムに到着するサービス要求に対応するために、利用可能な限られた帯域幅のリソースを割り当てます。
本稿では,Deep Setsと組み合わせた分布型Deep Deterministic Policy Gradient (DDPG)アルゴリズムを提案する。
提案アルゴリズムは, 合成データと実データの両方で検証し, 従来手法に対する一貫した利得を示す。
論文 参考訳(メタデータ) (2020-11-27T09:49:38Z) - Area-wide traffic signal control based on a deep graph Q-Network (DGQN)
trained in an asynchronous manner [3.655021726150368]
強化学習(RL)アルゴリズムは交通信号研究に広く応用されている。
しかし,大規模交通ネットワークにおける信号機の共同制御にはいくつかの問題がある。
論文 参考訳(メタデータ) (2020-08-05T06:13:58Z) - Communication-Efficient Distributed Stochastic AUC Maximization with
Deep Neural Networks [50.42141893913188]
本稿では,ニューラルネットワークを用いた大規模AUCのための分散変数について検討する。
我々のモデルは通信ラウンドをはるかに少なくし、理論上はまだ多くの通信ラウンドを必要としています。
いくつかのデータセットに対する実験は、我々の理論の有効性を示し、我々の理論を裏付けるものである。
論文 参考訳(メタデータ) (2020-05-05T18:08:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。