論文の概要: Adaptive Contention Window Design using Deep Q-learning
- arxiv url: http://arxiv.org/abs/2011.09418v1
- Date: Wed, 18 Nov 2020 17:31:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-24 05:14:08.335184
- Title: Adaptive Contention Window Design using Deep Q-learning
- Title(参考訳): ディープqラーニングを用いた適応競合ウィンドウ設計
- Authors: Abhishek Kumar, Gunjan Verma, Chirag Rao, Ananthram Swami, and
Santiago Segarra
- Abstract要約: ランダムアクセス無線ネットワークにおける適応競合窓(CW)設計の問題について検討する。
我々のゴールは、ネットワークレベルのユーティリティを最大化するために、最小CW(MCW)パラメータを動的に適応できるインテリジェントノードを設計することである。
- 参考スコア(独自算出の注目度): 46.49295424938727
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study the problem of adaptive contention window (CW) design for
random-access wireless networks. More precisely, our goal is to design an
intelligent node that can dynamically adapt its minimum CW (MCW) parameter to
maximize a network-level utility knowing neither the MCWs of other nodes nor
how these change over time. To achieve this goal, we adopt a reinforcement
learning (RL) framework where we circumvent the lack of system knowledge with
local channel observations and we reward actions that lead to high utilities.
To efficiently learn these preferred actions, we follow a deep Q-learning
approach, where the Q-value function is parametrized using a multi-layer
perception. In particular, we implement a rainbow agent, which incorporates
several empirical improvements over the basic deep Q-network. Numerical
experiments based on the NS3 simulator reveal that the proposed RL agent
performs close to optimal and markedly improves upon existing learning and
non-learning based alternatives.
- Abstract(参考訳): ランダムアクセス無線ネットワークにおける適応競合窓(CW)設計の問題について検討する。
より正確には、我々のゴールは、他のノードのMCWも変化も知らないネットワークレベルのユーティリティを最大化するために、最小のCW(MCW)パラメータを動的に適応できるインテリジェントノードを設計することである。
この目的を達成するために,ローカルチャネル観測によるシステム知識の欠如を回避するための強化学習(RL)フレームワークを採用し,高いユーティリティを実現するためのアクションに報いる。
これらの望ましい動作を効率的に学習するために,多層知覚を用いてq値関数をパラメトリ化する深層q学習手法を提案する。
特に,基礎的深層Qネットワークに対する経験的改善を取り入れたレインボーエージェントを実装した。
ns3シミュレータを用いた数値実験により,提案するrlエージェントは最適に近い性能を示し,既存の学習と非学習に基づく代替手段を著しく改善した。
関連論文リスト
- Enhancing Spectrum Efficiency in 6G Satellite Networks: A GAIL-Powered Policy Learning via Asynchronous Federated Inverse Reinforcement Learning [67.95280175998792]
ビームフォーミング,スペクトルアロケーション,リモートユーザ機器(RUE)アソシエイトを最適化するために,GAILを利用した新しいポリシー学習手法を提案する。
手動チューニングなしで報酬関数を自動的に学習するために、逆RL(IRL)を用いる。
提案手法は従来のRL手法よりも優れており,コンバージェンスと報酬値の14.6%の改善が達成されている。
論文 参考訳(メタデータ) (2024-09-27T13:05:02Z) - Advanced deep-reinforcement-learning methods for flow control: group-invariant and positional-encoding networks improve learning speed and quality [0.7421845364041001]
本研究は,流路制御のための深部強化学習法(DRL)の進歩である。
グループ不変ネットワークと位置エンコーディングをDRLアーキテクチャに統合することに注力する。
提案手法はRayleigh-B'enard対流のケーススタディを用いて検証した。
論文 参考訳(メタデータ) (2024-07-25T07:24:41Z) - Principled Architecture-aware Scaling of Hyperparameters [69.98414153320894]
高品質のディープニューラルネットワークをトレーニングするには、非自明で高価なプロセスである適切なハイパーパラメータを選択する必要がある。
本研究では,ネットワークアーキテクチャにおける初期化と最大学習率の依存性を正確に評価する。
ネットワークランキングは、ベンチマークのトレーニングネットワークにより容易に変更可能であることを実証する。
論文 参考訳(メタデータ) (2024-02-27T11:52:49Z) - ILP-based Resource Optimization Realized by Quantum Annealing for Optical Wide-area Communication Networks -- A Framework for Solving Combinatorial Problems of a Real-world Application by Quantum Annealing [5.924780594614675]
近年の研究では、D-Wave AdvantageTM量子アニールシステムに組み込むことができる2次非拘束二元最適化(QUBO)問題として、そのような問題をいかに実装できるかを実証した。
本稿では、システムパラメータの最適化に関する調査と、ソリューションの品質をさらに向上させるために機械学習(ML)技術をどのように取り入れているかについて報告する。
我々は、このNNを単純な整数線形プログラミング(ILP)の例で実装し、D-Waveが取得しなかった解空間をNNが完全にマッピングする方法を実証した。
論文 参考訳(メタデータ) (2024-01-01T17:52:58Z) - Pointer Networks with Q-Learning for Combinatorial Optimization [55.2480439325792]
我々は、モデルフリーQ値ポリシー近似をPointer Networks(Ptr-Nets)と統合したハイブリッドニューラルネットワークであるPointer Q-Network(PQN)を紹介する。
実験により,本手法の有効性を実証し,不安定な環境でモデルをテストする。
論文 参考訳(メタデータ) (2023-11-05T12:03:58Z) - MARLIN: Soft Actor-Critic based Reinforcement Learning for Congestion
Control in Real Networks [63.24965775030673]
そこで本研究では,汎用的な渋滞制御(CC)アルゴリズムを設計するための新しい強化学習(RL)手法を提案する。
我々の解であるMARLINは、Soft Actor-Criticアルゴリズムを用いてエントロピーとリターンの両方を最大化する。
我々は,MARLINを実ネットワーク上で訓練し,実ミスマッチを克服した。
論文 参考訳(メタデータ) (2023-02-02T18:27:20Z) - Evolutionary Deep Reinforcement Learning for Dynamic Slice Management in
O-RAN [11.464582983164991]
新しいオープン無線アクセスネットワーク(O-RAN)は、フレキシブルな設計、分離された仮想およびプログラマブルなコンポーネント、インテリジェントクローズループ制御などの特徴を区別する。
O-RANスライシングは、状況の変化に直面したネットワーク品質保証(QoS)のための重要な戦略として検討されている。
本稿では,ネットワークスライスを知的に管理できる新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2022-08-30T17:00:53Z) - Analytically Tractable Bayesian Deep Q-Learning [0.0]
我々は時間差Q-ラーニングフレームワークを適応させ、抽出可能な近似ガウス推論(TAGI)と互換性を持たせる。
我々は,TAGIがバックプロパゲーション学習ネットワークに匹敵する性能に到達できることを実証した。
論文 参考訳(メタデータ) (2021-06-21T13:11:52Z) - Deep Multi-Task Learning for Cooperative NOMA: System Design and
Principles [52.79089414630366]
我々は,近年のディープラーニング(DL)の進歩を反映した,新しいディープ・コラボレーティブなNOMAスキームを開発する。
我々は,システム全体を包括的に最適化できるように,新しいハイブリッドカスケードディープニューラルネットワーク(DNN)アーキテクチャを開発した。
論文 参考訳(メタデータ) (2020-07-27T12:38:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。