論文の概要: Reinforcement Learning for Datacenter Congestion Control
- arxiv url: http://arxiv.org/abs/2102.09337v1
- Date: Thu, 18 Feb 2021 13:49:28 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-19 14:27:30.787770
- Title: Reinforcement Learning for Datacenter Congestion Control
- Title(参考訳): データセンター混雑制御のための強化学習
- Authors: Chen Tessler, Yuval Shpigelman, Gal Dalal, Amit Mandelbaum, Doron
Haritan Kazakov, Benjamin Fuhrer, Gal Chechik, Shie Mannor
- Abstract要約: 渋滞制御アルゴリズムの成功は、レイテンシとネットワーク全体のスループットを劇的に改善する。
今日まで、このような学習ベースのアルゴリズムはこの領域で実用的な可能性を示さなかった。
実世界のデータセンターネットワークの様々な構成に一般化することを目的としたRLに基づくアルゴリズムを考案する。
本稿では,この手法が他のRL手法よりも優れており,トレーニング中に見られなかったシナリオに一般化可能であることを示す。
- 参考スコア(独自算出の注目度): 50.225885814524304
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We approach the task of network congestion control in datacenters using
Reinforcement Learning (RL). Successful congestion control algorithms can
dramatically improve latency and overall network throughput. Until today, no
such learning-based algorithms have shown practical potential in this domain.
Evidently, the most popular recent deployments rely on rule-based heuristics
that are tested on a predetermined set of benchmarks. Consequently, these
heuristics do not generalize well to newly-seen scenarios. Contrarily, we
devise an RL-based algorithm with the aim of generalizing to different
configurations of real-world datacenter networks. We overcome challenges such
as partial-observability, non-stationarity, and multi-objectiveness. We further
propose a policy gradient algorithm that leverages the analytical structure of
the reward function to approximate its derivative and improve stability. We
show that this scheme outperforms alternative popular RL approaches, and
generalizes to scenarios that were not seen during training. Our experiments,
conducted on a realistic simulator that emulates communication networks'
behavior, exhibit improved performance concurrently on the multiple considered
metrics compared to the popular algorithms deployed today in real datacenters.
Our algorithm is being productized to replace heuristics in some of the largest
datacenters in the world.
- Abstract(参考訳): Reinforcement Learning (RL) を用いて,データセンタにおけるネットワーク混雑制御のタスクにアプローチする。
渋滞制御アルゴリズムの成功は、レイテンシとネットワーク全体のスループットを劇的に改善する。
今日まで、このような学習ベースのアルゴリズムはこの領域で実用的な可能性を示さなかった。
明らかに、最近の最も人気のあるデプロイメントは、所定のベンチマークセットでテストされるルールベースのヒューリスティックに依存している。
したがって、これらのヒューリスティックは、新しいシナリオにうまく一般化しない。
対照的に、実世界のデータセンターネットワークの異なる構成に一般化するために、RLに基づくアルゴリズムを考案する。
部分可観測性、非定常性、多目的性といった課題を克服する。
さらに,報奨関数の解析構造を活用し,その導出を近似し,安定性を向上させるポリシ勾配アルゴリズムを提案する。
本稿では,この手法が他のRL手法よりも優れており,トレーニング中に見られなかったシナリオに一般化可能であることを示す。
実験は,通信ネットワークの動作をエミュレートする現実的なシミュレータ上で実施し,実データセンタにデプロイされる一般的なアルゴリズムと比較して,複数の測定値で同時に性能が向上することを示す。
弊社のアルゴリズムは、世界最大のデータセンターのヒューリスティックスを置き換えるために生産されている。
関連論文リスト
- DIMAT: Decentralized Iterative Merging-And-Training for Deep Learning Models [21.85879890198875]
Decentralized Iterative Merging-And-Training (DIMAT) は、新しい分散深層学習アルゴリズムである。
DIMATは, 独立・同一分散(IID)および非IIDデータを用いて, 通信オーバヘッドの低減を図ることにより, より高速かつ高い初期ゲインが得られることを示す。
このDIMATパラダイムは未来の分散学習に新たな機会を与え、疎結合な通信計算で現実世界への適応性を高める。
論文 参考訳(メタデータ) (2024-04-11T18:34:29Z) - Safe and Accelerated Deep Reinforcement Learning-based O-RAN Slicing: A
Hybrid Transfer Learning Approach [20.344810727033327]
我々は,DRLをベースとしたO-RANスライシングにおいて,安全かつ迅速な収束を実現するためのハイブリッドTL支援手法を提案し,設計する。
提案されたハイブリッドアプローチは、少なくとも7.7%と20.7%は、平均的な初期報酬値と収束シナリオの割合を改善している。
論文 参考訳(メタデータ) (2023-09-13T18:58:34Z) - How Does Forecasting Affect the Convergence of DRL Techniques in O-RAN
Slicing? [20.344810727033327]
本稿では,DRLの収束性を高めるため,新しい予測支援型DRL手法とそのO-RAN実運用ワークフローを提案する。
提案手法では, 平均初期報酬値, 収束率, 収束シナリオ数において最大22.8%, 86.3%, 300%の改善が見られた。
論文 参考訳(メタデータ) (2023-09-01T14:30:04Z) - Semantic-aware Transmission Scheduling: a Monotonicity-driven Deep
Reinforcement Learning Approach [39.681075180578986]
6G時代のサイバー物理システムでは、アプリケーションレベルの性能を保証するためにセマンティック通信が必要である。
本稿では,まず,最適なセマンティック・アウェア・スケジューリング・ポリシーの基本的特性について検討する。
そこで我々は,理論ガイドラインを活用することにより,高度な深層強化学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2023-05-23T05:45:22Z) - MARLIN: Soft Actor-Critic based Reinforcement Learning for Congestion
Control in Real Networks [63.24965775030673]
そこで本研究では,汎用的な渋滞制御(CC)アルゴリズムを設計するための新しい強化学習(RL)手法を提案する。
我々の解であるMARLINは、Soft Actor-Criticアルゴリズムを用いてエントロピーとリターンの両方を最大化する。
我々は,MARLINを実ネットワーク上で訓練し,実ミスマッチを克服した。
論文 参考訳(メタデータ) (2023-02-02T18:27:20Z) - Federated Deep Reinforcement Learning for the Distributed Control of
NextG Wireless Networks [16.12495409295754]
次世代(NextG)ネットワークは、拡張現実(AR)やコネクテッド・自律走行車といった、インターネットの触覚を必要とするアプリケーションをサポートすることが期待されている。
データ駆動アプローチは、現在の運用条件に適応するネットワークの能力を改善することができる。
深部RL(DRL)は複雑な環境においても良好な性能を発揮することが示されている。
論文 参考訳(メタデータ) (2021-12-07T03:13:20Z) - Behavioral Priors and Dynamics Models: Improving Performance and Domain
Transfer in Offline RL [82.93243616342275]
適応行動優先型オフラインモデルに基づくRL(Adaptive Behavioral Priors:MABE)を導入する。
MABEは、ドメイン内の一般化をサポートする動的モデルと、ドメイン間の一般化をサポートする振る舞いの事前が相補的であることの発見に基づいている。
クロスドメインの一般化を必要とする実験では、MABEが先行手法より優れていることが判明した。
論文 参考訳(メタデータ) (2021-06-16T20:48:49Z) - Quasi-Global Momentum: Accelerating Decentralized Deep Learning on
Heterogeneous Data [77.88594632644347]
ディープラーニングモデルの分散トレーニングは、ネットワーク上でデータプライバシとデバイス上での学習を可能にする重要な要素である。
現実的な学習シナリオでは、異なるクライアントのローカルデータセットに異質性が存在することが最適化の課題となる。
本稿では,この分散学習の難しさを軽減するために,運動量に基づく新しい手法を提案する。
論文 参考訳(メタデータ) (2021-02-09T11:27:14Z) - Adaptive Serverless Learning [114.36410688552579]
本研究では,データから学習率を動的に計算できる適応型分散学習手法を提案する。
提案アルゴリズムは, 作業者数に対して線形高速化が可能であることを示す。
通信効率のオーバーヘッドを低減するため,通信効率のよい分散訓練手法を提案する。
論文 参考訳(メタデータ) (2020-08-24T13:23:02Z) - Critic Regularized Regression [70.8487887738354]
批判正規化回帰(CRR)形式を用いてデータからポリシーを学習するための新しいオフラインRLアルゴリズムを提案する。
CRRは驚くほどよく動作し、高次元の状態と行動空間を持つタスクにスケールする。
論文 参考訳(メタデータ) (2020-06-26T17:50:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。