論文の概要: A Deep Reinforcement Learning-Based TCP Congestion Control Algorithm: Design, Simulation, and Evaluation
- arxiv url: http://arxiv.org/abs/2508.01047v1
- Date: Fri, 01 Aug 2025 20:00:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-05 18:25:21.678624
- Title: A Deep Reinforcement Learning-Based TCP Congestion Control Algorithm: Design, Simulation, and Evaluation
- Title(参考訳): 深層強化学習に基づくTCP混雑制御アルゴリズム:設計,シミュレーション,評価
- Authors: Efe Ağlamazlar, Emirhan Eken, Harun Batur Geçici,
- Abstract要約: 本稿では,Deep Reinforcement Learningに基づく新しいTCP混雑制御アルゴリズムを提案する。
提案手法は、Deep Q-Networksを用いて、主要なネットワークパラメータを観察し、リアルタイムアクションを取ることで、混雑ウィンドウ(cWnd)を最適化する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents a novel TCP congestion control algorithm based on Deep Reinforcement Learning. The proposed approach utilizes Deep Q-Networks to optimize the congestion window (cWnd) by observing key network parameters and taking real-time actions. The algorithm is trained and evaluated within the NS-3 network simulator using the OpenGym interface. The results demonstrate significant improvements over traditional TCP New Reno in terms of latency and throughput, with better adaptability to changing network conditions. This study emphasizes the potential of reinforcement learning techniques for solving complex congestion control problems in modern networks.
- Abstract(参考訳): 本稿では,Deep Reinforcement Learningに基づく新しいTCP混雑制御アルゴリズムを提案する。
提案手法は、Deep Q-Networksを用いて、主要なネットワークパラメータを観察し、リアルタイムアクションを取ることで、混雑ウィンドウ(cWnd)を最適化する。
このアルゴリズムは、OpenGymインタフェースを用いてNS-3ネットワークシミュレータ内でトレーニングされ、評価される。
その結果、レイテンシとスループットの点で従来のTCP New Renoよりも大幅に改善され、ネットワーク条件の変更への適応性が向上した。
本研究では,現代ネットワークにおける複雑な混雑制御問題の解法における強化学習手法の可能性を強調した。
関連論文リスト
- Communication Optimization for Decentralized Learning atop Bandwidth-limited Edge Networks [4.880664732766839]
分散連合学習(DFL)は、人工知能(AI)機能をネットワークエッジに持ち込むための、有望な機械学習パラダイムである。
しかし、エッジネットワーク上でのDFLの実行は、エージェント間の広範なパラメータ交換のため、深刻なパフォーマンス上の問題に直面している。
エージェントとエージェント間の通信要求を制御するミキシングマトリックスとで構成したオーバーレイネットワークの通信方式を共同で設計する。
評価の結果,提案アルゴリズムはベースラインと比較してトレーニング時間を80%以上削減できることがわかった。
論文 参考訳(メタデータ) (2025-04-16T15:56:57Z) - Broad Critic Deep Actor Reinforcement Learning for Continuous Control [4.979815588384994]
新しいハイブリッドアクター・クリティック強化学習(RL)フレームワークが導入された。
提案するフレームワークは,広範学習システム(BLS)とディープニューラルネットワーク(DNN)を統合する。
このハイブリッド設計は一般化可能であり、既存のアクター批判アルゴリズムを拡張できる。
論文 参考訳(メタデータ) (2024-11-24T12:24:46Z) - Fixing the NTK: From Neural Network Linearizations to Exact Convex
Programs [63.768739279562105]
学習目標に依存しない特定のマスクウェイトを選択する場合、このカーネルはトレーニングデータ上のゲートReLUネットワークのNTKと等価であることを示す。
この目標への依存の欠如の結果として、NTKはトレーニングセット上の最適MKLカーネルよりもパフォーマンスが良くない。
論文 参考訳(メタデータ) (2023-09-26T17:42:52Z) - Unsupervised Deep Unfolded PGD for Transmit Power Allocation in Wireless
Systems [0.6091702876917281]
本稿では,反復射影勾配(PGD)アルゴリズムをニューラルネットワークの層に深く展開し,ステップサイズパラメータを学習する,単純な低複素性TPCアルゴリズムを提案する。
高密度デバイス間通信(D2D)における性能評価の結果,提案手法は2回以上の繰り返し回数で反復アルゴリズムよりも優れた性能が得られることがわかった。
論文 参考訳(メタデータ) (2023-06-20T19:51:21Z) - MARLIN: Soft Actor-Critic based Reinforcement Learning for Congestion
Control in Real Networks [63.24965775030673]
そこで本研究では,汎用的な渋滞制御(CC)アルゴリズムを設計するための新しい強化学習(RL)手法を提案する。
我々の解であるMARLINは、Soft Actor-Criticアルゴリズムを用いてエントロピーとリターンの両方を最大化する。
我々は,MARLINを実ネットワーク上で訓練し,実ミスマッチを克服した。
論文 参考訳(メタデータ) (2023-02-02T18:27:20Z) - Quantization-aware Interval Bound Propagation for Training Certifiably
Robust Quantized Neural Networks [58.195261590442406]
我々は、逆向きに頑健な量子化ニューラルネットワーク(QNN)の訓練と証明の課題について検討する。
近年の研究では、浮動小数点ニューラルネットワークが量子化後の敵攻撃に対して脆弱であることが示されている。
本稿では、堅牢なQNNをトレーニングするための新しい方法であるQA-IBP(quantization-aware interval bound propagation)を提案する。
論文 参考訳(メタデータ) (2022-11-29T13:32:38Z) - A Reinforcement Learning Approach to Optimize Available Network
Bandwidth Utilization [3.254879465902239]
深部強化学習(RL)を用いた並列TCPストリームの最適数を求めるための新しい手法を提案する。
我々のRLアルゴリズムは、最大15%高いスループットを達成しながら、ほぼ最適解を40%高速に見つけることができる。
論文 参考訳(メタデータ) (2022-11-22T02:00:05Z) - Symbolic Distillation for Learned TCP Congestion Control [70.27367981153299]
TCP渋滞制御は、深層強化学習(RL)アプローチで大きな成功を収めた。
ブラックボックスポリシーは解釈可能性と信頼性に欠けており、しばしば従来のTCPデータパスの外で運用する必要がある。
本稿では,まず深部RLエージェントを訓練し,次にNNポリシーをホワイトボックスの軽量なルールに蒸留する,両世界の長所を達成するための新しい2段階のソリューションを提案する。
論文 参考訳(メタデータ) (2022-10-24T00:58:16Z) - Reinforcement Learning Algorithm for Traffic Steering in Heterogeneous
Network [0.609170287691728]
本稿では,HetNetsにおける新しいトラフィックステアリングアルゴリズムを提案する。
提案アルゴリズムは,ネットワークシミュレーション結果を用いた2つの参照アルゴリズムと比較した。
論文 参考訳(メタデータ) (2021-11-29T23:56:18Z) - Reinforcement Learning for Datacenter Congestion Control [50.225885814524304]
渋滞制御アルゴリズムの成功は、レイテンシとネットワーク全体のスループットを劇的に改善する。
今日まで、このような学習ベースのアルゴリズムはこの領域で実用的な可能性を示さなかった。
実世界のデータセンターネットワークの様々な構成に一般化することを目的としたRLに基づくアルゴリズムを考案する。
本稿では,この手法が他のRL手法よりも優れており,トレーニング中に見られなかったシナリオに一般化可能であることを示す。
論文 参考訳(メタデータ) (2021-02-18T13:49:28Z) - Deep Multi-Task Learning for Cooperative NOMA: System Design and
Principles [52.79089414630366]
我々は,近年のディープラーニング(DL)の進歩を反映した,新しいディープ・コラボレーティブなNOMAスキームを開発する。
我々は,システム全体を包括的に最適化できるように,新しいハイブリッドカスケードディープニューラルネットワーク(DNN)アーキテクチャを開発した。
論文 参考訳(メタデータ) (2020-07-27T12:38:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。