論文の概要: Adaptive Contention Window Design using Deep Q-learning
- arxiv url: http://arxiv.org/abs/2011.09418v1
- Date: Wed, 18 Nov 2020 17:31:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-24 05:14:08.335184
- Title: Adaptive Contention Window Design using Deep Q-learning
- Title(参考訳): ディープqラーニングを用いた適応競合ウィンドウ設計
- Authors: Abhishek Kumar, Gunjan Verma, Chirag Rao, Ananthram Swami, and
Santiago Segarra
- Abstract要約: ランダムアクセス無線ネットワークにおける適応競合窓(CW)設計の問題について検討する。
我々のゴールは、ネットワークレベルのユーティリティを最大化するために、最小CW(MCW)パラメータを動的に適応できるインテリジェントノードを設計することである。
- 参考スコア(独自算出の注目度): 46.49295424938727
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study the problem of adaptive contention window (CW) design for
random-access wireless networks. More precisely, our goal is to design an
intelligent node that can dynamically adapt its minimum CW (MCW) parameter to
maximize a network-level utility knowing neither the MCWs of other nodes nor
how these change over time. To achieve this goal, we adopt a reinforcement
learning (RL) framework where we circumvent the lack of system knowledge with
local channel observations and we reward actions that lead to high utilities.
To efficiently learn these preferred actions, we follow a deep Q-learning
approach, where the Q-value function is parametrized using a multi-layer
perception. In particular, we implement a rainbow agent, which incorporates
several empirical improvements over the basic deep Q-network. Numerical
experiments based on the NS3 simulator reveal that the proposed RL agent
performs close to optimal and markedly improves upon existing learning and
non-learning based alternatives.
- Abstract(参考訳): ランダムアクセス無線ネットワークにおける適応競合窓(CW)設計の問題について検討する。
より正確には、我々のゴールは、他のノードのMCWも変化も知らないネットワークレベルのユーティリティを最大化するために、最小のCW(MCW)パラメータを動的に適応できるインテリジェントノードを設計することである。
この目的を達成するために,ローカルチャネル観測によるシステム知識の欠如を回避するための強化学習(RL)フレームワークを採用し,高いユーティリティを実現するためのアクションに報いる。
これらの望ましい動作を効率的に学習するために,多層知覚を用いてq値関数をパラメトリ化する深層q学習手法を提案する。
特に,基礎的深層Qネットワークに対する経験的改善を取り入れたレインボーエージェントを実装した。
ns3シミュレータを用いた数値実験により,提案するrlエージェントは最適に近い性能を示し,既存の学習と非学習に基づく代替手段を著しく改善した。
関連論文リスト
- Principled Architecture-aware Scaling of Hyperparameters [69.98414153320894]
高品質のディープニューラルネットワークをトレーニングするには、非自明で高価なプロセスである適切なハイパーパラメータを選択する必要がある。
本研究では,ネットワークアーキテクチャにおける初期化と最大学習率の依存性を正確に評価する。
ネットワークランキングは、ベンチマークのトレーニングネットワークにより容易に変更可能であることを実証する。
論文 参考訳(メタデータ) (2024-02-27T11:52:49Z) - A Deep Reinforcement Learning Approach for Adaptive Traffic Routing in
Next-gen Networks [1.1586742546971471]
次世代ネットワークは、トラフィックダイナミクスに基づいたネットワーク構成を自動化し、適応的に調整する必要がある。
交通政策を決定する伝統的な手法は、通常は手作りのプログラミング最適化とアルゴリズムに基づいている。
我々は適応的なトラフィックルーティングのための深層強化学習(DRL)アプローチを開発する。
論文 参考訳(メタデータ) (2024-02-07T01:48:29Z) - ILP-based Resource Optimization Realized by Quantum Annealing for
Optical Wide-area Communication Networks -- A Framework for Solving
Combinatorial Problems of a Real-world Application by Quantum Annealing [6.472397166280681]
近年の研究では、D-Wave AdvantageTM量子アニールシステムに組み込むことができる2次非拘束二元最適化(QUBO)問題として、そのような問題をいかに実装できるかを実証した。
本稿では、システムパラメータの最適化に関する調査と、ソリューションの品質をさらに向上させるために機械学習(ML)技術をどのように取り入れているかについて報告する。
我々は、このNNを単純な整数線形プログラミング(ILP)の例で実装し、どのようにNNが解空間を完全にマッピングできるかをD-Waveが捉えていないかを実証した。
論文 参考訳(メタデータ) (2024-01-01T17:52:58Z) - Pointer Networks with Q-Learning for OP Combinatorial Optimization [65.268245109828]
オブジェクト指向問題(OP)は最適化においてユニークな課題を提示します。
OPのNPハードの性質を考えると、最適解を得るのは本質的に複雑である。
この研究はPointer Q-Network (PQN)を発表した。
論文 参考訳(メタデータ) (2023-11-05T12:03:58Z) - MARLIN: Soft Actor-Critic based Reinforcement Learning for Congestion
Control in Real Networks [63.24965775030673]
そこで本研究では,汎用的な渋滞制御(CC)アルゴリズムを設計するための新しい強化学習(RL)手法を提案する。
我々の解であるMARLINは、Soft Actor-Criticアルゴリズムを用いてエントロピーとリターンの両方を最大化する。
我々は,MARLINを実ネットワーク上で訓練し,実ミスマッチを克服した。
論文 参考訳(メタデータ) (2023-02-02T18:27:20Z) - Evolutionary Deep Reinforcement Learning for Dynamic Slice Management in
O-RAN [11.464582983164991]
新しいオープン無線アクセスネットワーク(O-RAN)は、フレキシブルな設計、分離された仮想およびプログラマブルなコンポーネント、インテリジェントクローズループ制御などの特徴を区別する。
O-RANスライシングは、状況の変化に直面したネットワーク品質保証(QoS)のための重要な戦略として検討されている。
本稿では,ネットワークスライスを知的に管理できる新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2022-08-30T17:00:53Z) - DeepCQ+: Robust and Scalable Routing with Multi-Agent Deep Reinforcement
Learning for Highly Dynamic Networks [2.819857535390181]
DeepCQ+ルーティングプロトコルは、新しいマルチエージェントディープ強化学習(MADRL)技術を既存のQラーニングベースのルーティングプロトコルに統合する。
大規模なシミュレーションにより、DeepCQ+は、オーバーヘッドを小さくして、エンドツーエンドのスループットを著しく向上させることが示された。
DeepCQ+は、トレーニングされていない多くのシナリオにおいて、非常に類似したパフォーマンス向上を維持している。
論文 参考訳(メタデータ) (2021-11-29T23:05:49Z) - Analytically Tractable Bayesian Deep Q-Learning [0.0]
我々は時間差Q-ラーニングフレームワークを適応させ、抽出可能な近似ガウス推論(TAGI)と互換性を持たせる。
我々は,TAGIがバックプロパゲーション学習ネットワークに匹敵する性能に到達できることを実証した。
論文 参考訳(メタデータ) (2021-06-21T13:11:52Z) - Deep Multi-Task Learning for Cooperative NOMA: System Design and
Principles [52.79089414630366]
我々は,近年のディープラーニング(DL)の進歩を反映した,新しいディープ・コラボレーティブなNOMAスキームを開発する。
我々は,システム全体を包括的に最適化できるように,新しいハイブリッドカスケードディープニューラルネットワーク(DNN)アーキテクチャを開発した。
論文 参考訳(メタデータ) (2020-07-27T12:38:37Z) - Dynamic Hierarchical Mimicking Towards Consistent Optimization
Objectives [73.15276998621582]
一般化能力を高めたCNN訓練を推進するための汎用的特徴学習機構を提案する。
DSNに部分的にインスパイアされた私たちは、ニューラルネットワークの中間層から微妙に設計されたサイドブランチをフォークしました。
カテゴリ認識タスクとインスタンス認識タスクの両方の実験により,提案手法の大幅な改善が示された。
論文 参考訳(メタデータ) (2020-03-24T09:56:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。