論文の概要: MARLIN: Soft Actor-Critic based Reinforcement Learning for Congestion
Control in Real Networks
- arxiv url: http://arxiv.org/abs/2302.01301v1
- Date: Thu, 2 Feb 2023 18:27:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-03 12:59:40.589171
- Title: MARLIN: Soft Actor-Critic based Reinforcement Learning for Congestion
Control in Real Networks
- Title(参考訳): MARLIN:リアルネットワークにおける混雑制御のためのソフトアクタ・クリティカルベース強化学習
- Authors: Raffaele Galliera, Alessandro Morelli, Roberto Fronteddu, Niranjan
Suri
- Abstract要約: そこで本研究では,汎用的な渋滞制御(CC)アルゴリズムを設計するための新しい強化学習(RL)手法を提案する。
我々の解であるMARLINは、Soft Actor-Criticアルゴリズムを用いてエントロピーとリターンの両方を最大化する。
我々は,MARLINを実ネットワーク上で訓練し,実ミスマッチを克服した。
- 参考スコア(独自算出の注目度): 63.24965775030673
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Fast and efficient transport protocols are the foundation of an increasingly
distributed world. The burden of continuously delivering improved communication
performance to support next-generation applications and services, combined with
the increasing heterogeneity of systems and network technologies, has promoted
the design of Congestion Control (CC) algorithms that perform well under
specific environments. The challenge of designing a generic CC algorithm that
can adapt to a broad range of scenarios is still an open research question. To
tackle this challenge, we propose to apply a novel Reinforcement Learning (RL)
approach. Our solution, MARLIN, uses the Soft Actor-Critic algorithm to
maximize both entropy and return and models the learning process as an
infinite-horizon task. We trained MARLIN on a real network with varying
background traffic patterns to overcome the sim-to-real mismatch that
researchers have encountered when applying RL to CC. We evaluated our solution
on the task of file transfer and compared it to TCP Cubic. While further
research is required, results have shown that MARLIN can achieve comparable
results to TCP with little hyperparameter tuning, in a task significantly
different from its training setting. Therefore, we believe that our work
represents a promising first step toward building CC algorithms based on the
maximum entropy RL framework.
- Abstract(参考訳): 高速で効率的なトランスポートプロトコルは、ますます分散した世界の基礎である。
次世代のアプリケーションやサービスをサポートするための通信性能の向上と、システムやネットワーク技術の多様性の増大が相まって、特定の環境下でうまく機能する混雑制御(cc)アルゴリズムの設計が進められている。
幅広いシナリオに適応できる汎用CCアルゴリズムを設計するという課題は、まだオープンな研究課題である。
この課題に取り組むために,新しい強化学習(rl)手法を適用することを提案する。
我々の解であるMARLINは、ソフトアクター・クライブアルゴリズムを用いてエントロピーとリターンの両方を最大化し、学習プロセスを無限水平タスクとしてモデル化する。
我々は,RLをCCに適用する際に,研究者が遭遇した実ミスマッチを克服するために,様々な背景トラフィックパターンを持つ実ネットワーク上でMARLINを訓練した。
ファイル転送のタスクにおいて、我々のソリューションを評価し、TCP Cubicと比較した。
さらなる研究が必要であるが、MARLINはトレーニング設定とは大きく異なるタスクで、ハイパーパラメータチューニングの少ないTCPに匹敵する結果が得られることを示した。
したがって,本研究は,最大エントロピーRLフレームワークに基づくCCアルゴリズム構築に向けた有望な第一歩であると考えている。
関連論文リスト
- Enhancing Spectrum Efficiency in 6G Satellite Networks: A GAIL-Powered Policy Learning via Asynchronous Federated Inverse Reinforcement Learning [67.95280175998792]
ビームフォーミング,スペクトルアロケーション,リモートユーザ機器(RUE)アソシエイトを最適化するために,GAILを利用した新しいポリシー学習手法を提案する。
手動チューニングなしで報酬関数を自動的に学習するために、逆RL(IRL)を用いる。
提案手法は従来のRL手法よりも優れており,コンバージェンスと報酬値の14.6%の改善が達成されている。
論文 参考訳(メタデータ) (2024-09-27T13:05:02Z) - Reinforcement Learning as an Improvement Heuristic for Real-World Production Scheduling [0.0]
1つの有望なアプローチは、RLエージェントを改善として訓練することであり、小さな変更を適用することで反復的に改善される最適以下のソリューションから始まる。
本手法を実世界の多目的生産スケジューリング問題に適用する。
当社のアプローチを、業界パートナの本当のデータを使って、他のアプローチと比較し、その優れたパフォーマンスを実証しました。
論文 参考訳(メタデータ) (2024-09-18T12:48:56Z) - Design Optimization of NOMA Aided Multi-STAR-RIS for Indoor Environments: A Convex Approximation Imitated Reinforcement Learning Approach [51.63921041249406]
非直交多重アクセス(Noma)により、複数のユーザが同じ周波数帯域を共有でき、同時に再構成可能なインテリジェントサーフェス(STAR-RIS)を送信および反射することができる。
STAR-RISを屋内に展開することは、干渉緩和、電力消費、リアルタイム設定における課題を提示する。
複数のアクセスポイント(AP)、STAR-RIS、NOMAを利用した新しいネットワークアーキテクチャが屋内通信のために提案されている。
論文 参考訳(メタデータ) (2024-06-19T07:17:04Z) - An advantage based policy transfer algorithm for reinforcement learning
with metrics of transferability [6.660458629649826]
強化学習(Reinforcement Learning, RL)は, 複雑・高次元環境における逐次的意思決定を可能にする。
トランスファーRLアルゴリズムは、1つまたは複数のソース環境からターゲット環境への知識の転送に使用できる。
本稿では、固定されたドメイン環境に対する非政治アドバンテージベースのポリシー転送アルゴリズムであるAPT-RLを提案する。
論文 参考訳(メタデータ) (2023-11-12T04:25:53Z) - Learning to Sail Dynamic Networks: The MARLIN Reinforcement Learning
Framework for Congestion Control in Tactical Environments [53.08686495706487]
本稿では, 正確な並列化可能なエミュレーション環境を利用して, 戦術ネットワークの環境を再現するRLフレームワークを提案する。
衛星通信(SATCOM)とUHFワイドバンド(UHF)の無線リンク間のボトルネックリンク遷移を再現した条件下で、MARLINエージェントを訓練することにより、我々のRL学習フレームワークを評価する。
論文 参考訳(メタデータ) (2023-06-27T16:15:15Z) - FORLORN: A Framework for Comparing Offline Methods and Reinforcement
Learning for Optimization of RAN Parameters [0.0]
本稿では,ネットワーク環境におけるRLエージェントの性能をns-3でシミュレートする新しいフレームワークを提案する。
このフレームワークでは、ドメイン固有の知識を持たないRLエージェントが、静的シナリオにおけるオフライン最適化に適合するように、Radio Access Network(RAN)パラメータを効率的に調整する方法を学習できることを実証する。
論文 参考訳(メタデータ) (2022-09-08T12:58:09Z) - Semantic-Aware Collaborative Deep Reinforcement Learning Over Wireless
Cellular Networks [82.02891936174221]
複数のエージェントが無線ネットワーク上で協調できるコラボレーティブディープ強化学習(CDRL)アルゴリズムは有望なアプローチである。
本稿では,リソース制約のある無線セルネットワーク上で,意味的にリンクされたDRLタスクを持つ未学習エージェントのグループを効率的に協調させる,新しい意味認識型CDRL手法を提案する。
論文 参考訳(メタデータ) (2021-11-23T18:24:47Z) - A Heuristically Assisted Deep Reinforcement Learning Approach for
Network Slice Placement [0.7885276250519428]
本稿では,Deep Reinforcement Learning(DRL)に基づくハイブリッド配置ソリューションと,Power of Two Choices原則に基づく専用最適化を提案する。
提案したHuristically-Assisted DRL (HA-DRL) は,他の最先端手法と比較して学習プロセスの高速化と資源利用の促進を可能にする。
論文 参考訳(メタデータ) (2021-05-14T10:04:17Z) - Reinforcement Learning for Datacenter Congestion Control [50.225885814524304]
渋滞制御アルゴリズムの成功は、レイテンシとネットワーク全体のスループットを劇的に改善する。
今日まで、このような学習ベースのアルゴリズムはこの領域で実用的な可能性を示さなかった。
実世界のデータセンターネットワークの様々な構成に一般化することを目的としたRLに基づくアルゴリズムを考案する。
本稿では,この手法が他のRL手法よりも優れており,トレーニング中に見られなかったシナリオに一般化可能であることを示す。
論文 参考訳(メタデータ) (2021-02-18T13:49:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。