論文の概要: LFQ: Online Learning of Per-flow Queuing Policies using Deep
Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2007.02735v3
- Date: Thu, 15 Oct 2020 17:14:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-13 03:22:51.189763
- Title: LFQ: Online Learning of Per-flow Queuing Policies using Deep
Reinforcement Learning
- Title(参考訳): lfq: 深層強化学習を用いたフローキュー政策のオンライン学習
- Authors: Maximilian Bachl, Joachim Fabini, Tanja Zseby
- Abstract要約: ディープラーニングに基づくアルゴリズムは,その混雑制御,遅延,帯域幅に応じて,各フローに最適なキューサイズを動的に割り当てることができることを示す。
競合するAQMスケジューラと比較して、同じまたは高いスループットを実現しながら、より小さなキューを提供する。
- 参考スコア(独自算出の注目度): 2.223733768286313
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The increasing number of different, incompatible congestion control
algorithms has led to an increased deployment of fair queuing. Fair queuing
isolates each network flow and can thus guarantee fairness for each flow even
if the flows' congestion controls are not inherently fair. So far, each queue
in the fair queuing system either has a fixed, static maximum size or is
managed by an Active Queue Management (AQM) algorithm like CoDel. In this paper
we design an AQM mechanism (Learning Fair Qdisc (LFQ)) that dynamically learns
the optimal buffer size for each flow according to a specified reward function
online. We show that our Deep Learning based algorithm can dynamically assign
the optimal queue size to each flow depending on its congestion control, delay
and bandwidth. Comparing to competing fair AQM schedulers, it provides
significantly smaller queues while achieving the same or higher throughput.
- Abstract(参考訳): 異なる非互換な渋滞制御アルゴリズムが増加し、公正な待ち行列の展開が増加した。
フェアキューイングは各ネットワークフローを分離し、フローの混雑制御が本質的にフェアでない場合でも、フローごとの公平性を保証する。
今のところ、フェアキューシステムの各キューは、固定された、静的な最大サイズを持つか、CoDelのようなアクティブキュー管理(AQM)アルゴリズムによって管理される。
本稿では,各フローの最適バッファサイズをオンラインの報酬関数に応じて動的に学習する,aqm機構(learning fair qdisc (lfq))を設計する。
提案手法では,混雑制御や遅延,帯域幅に応じて,各フローに最適なキューサイズを動的に割り当てることができることを示す。
競合するAQMスケジューラと比較して、同じまたは高いスループットを実現しながら、より小さなキューを提供する。
関連論文リスト
- Efficient Distribution Matching of Representations via Noise-Injected Deep InfoMax [73.03684002513218]
我々はDeep InfoMax(DIM)を拡張し、学習した表現を選択された事前分布に自動マッチングできるようにする。
このような修正により、一様かつ通常に分散した表現を学習できることを示す。
その結果,下流作業における性能とDMの品質の中間的なトレードオフが示唆された。
論文 参考訳(メタデータ) (2024-10-09T15:40:04Z) - Adversarial Network Optimization under Bandit Feedback: Maximizing Utility in Non-Stationary Multi-Hop Networks [35.78834550608041]
古典的なSNOアルゴリズムでは、ネットワーク条件は時間とともに定常である必要がある。
これらの問題に触発され、我々は帯域幅のフィードバックの下でAdversarial Network Optimization (ANO) を検討する。
提案するUMO2アルゴリズムは,ネットワークの安定性を保証し,また,「微妙に変化する」参照ポリシーの実用性に適合する。
論文 参考訳(メタデータ) (2024-08-29T02:18:28Z) - Multi-Agent Continuous Control with Generative Flow Networks [23.07260731600958]
Generative Flow Networks (GFlowNets) は, トラジェクトリの最終状態が報酬に比例する分布から, 多様なトラジェクトリを生成することを目的としている。
本稿では,複数エージェントによる協調探索を実現するために,MACFN(Multi-Agent Generative Continuous Flow Networks)法を提案する。
論文 参考訳(メタデータ) (2024-08-13T14:12:03Z) - Robust Stochastically-Descending Unrolled Networks [85.6993263983062]
Deep Unrolling(ディープ・アンローリング)は、トレーニング可能なニューラルネットワークの層に切り捨てられた反復アルゴリズムをアンロールする、新たな学習最適化手法である。
アンロールネットワークの収束保証と一般化性は、いまだにオープンな理論上の問題であることを示す。
提案した制約の下で訓練されたアンロールアーキテクチャを2つの異なるアプリケーションで数値的に評価する。
論文 参考訳(メタデータ) (2023-12-25T18:51:23Z) - Distributional GFlowNets with Quantile Flows [73.73721901056662]
Generative Flow Networks(GFlowNets)は、エージェントが一連の意思決定ステップを通じて複雑な構造を生成するためのポリシーを学ぶ確率的サンプルの新たなファミリーである。
本研究では,GFlowNetの分散パラダイムを採用し,各フロー関数を分散化し,学習中により情報的な学習信号を提供する。
GFlowNet学習アルゴリズムは,リスク不確実性のあるシナリオを扱う上で不可欠な,リスクに敏感なポリシーを学習することができる。
論文 参考訳(メタデータ) (2023-02-11T22:06:17Z) - Hierarchical Over-the-Air FedGradNorm [50.756991828015316]
MTL(Multi-task Learning)は、単一の共有ネットワークで複数の関連するタスクを同時に学習する学習パラダイムである。
我々は,HOTA-FedGradNormと呼ばれる動的重み付け戦略を用いた階層的オーバー・ザ・エア(HOTA)PFLを提案する。
論文 参考訳(メタデータ) (2022-12-14T18:54:46Z) - Lyapunov Function Consistent Adaptive Network Signal Control with Back
Pressure and Reinforcement Learning [9.797994846439527]
本研究では、それぞれ特定のリャプノフ関数を定義するリアプノフ制御理論を用いた統一的なフレームワークを提案する。
Lyapunov理論の知見に基づいて、この研究は強化学習(Reinforcement Learning, RL)に基づくネットワーク信号制御のための報酬関数を設計する。
提案アルゴリズムは, 純旅客車流および貨物を含む異種交通流下での従来のRL法およびRL法と比較した。
論文 参考訳(メタデータ) (2022-10-06T00:22:02Z) - Deep Reinforcement Learning for Scheduling and Power Allocation in a 5G
Urban Mesh [9.20150441025231]
マルチホップミリ波(mmWave)メッシュ上でのリアルタイム流れのルーティングとスケジューリングの問題について検討する。
我々は,各時間帯にどのmWaveリンクのサブセットをアクティベートすべきかを決定するモデルフリーな深層強化学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2022-10-04T07:23:11Z) - GMFlow: Learning Optical Flow via Global Matching [124.57850500778277]
光フロー推定学習のためのGMFlowフレームワークを提案する。
機能拡張のためのカスタマイズトランスフォーマー、グローバル機能マッチングのための相関層とソフトマックス層、フロー伝搬のための自己保持層である。
我々の新しいフレームワークは、挑戦的なSintelベンチマークにおいて、32項目RAFTのパフォーマンスより優れています。
論文 参考訳(メタデータ) (2021-11-26T18:59:56Z) - Scheduling Policy and Power Allocation for Federated Learning in NOMA
Based MEC [21.267954799102874]
Federated Learning(FL)は、データ分散を維持しながらモデルを集中的にトレーニングできる、高度に追求された機械学習技術である。
重み付き和データレートを最大化するために、非直交多重アクセス(NOMA)設定を用いた新しいスケジューリングポリシーと電力割当方式を提案する。
シミュレーションの結果,提案手法は,NOMAベースの無線ネットワークにおいて高いFLテスト精度を実現するのに有効であることがわかった。
論文 参考訳(メタデータ) (2020-06-21T23:07:41Z) - Non-Cooperative Game Theory Based Rate Adaptation for Dynamic Video
Streaming over HTTP [89.30855958779425]
Dynamic Adaptive Streaming over HTTP (DASH)は、新興かつ有望なマルチメディアストリーミング技術であることを示した。
本稿では,サーバの限られた輸出帯域幅をマルチユーザに対して最適に割り当てるアルゴリズムを提案し,その品質・オブ・エクスペリエンス(QoE)を公平性で最大化する。
論文 参考訳(メタデータ) (2019-12-27T01:19:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。