論文の概要: Deep Echo State Q-Network (DEQN) and Its Application in Dynamic Spectrum
Sharing for 5G and Beyond
- arxiv url: http://arxiv.org/abs/2010.05449v1
- Date: Mon, 12 Oct 2020 04:44:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-08 07:35:34.221010
- Title: Deep Echo State Q-Network (DEQN) and Its Application in Dynamic Spectrum
Sharing for 5G and Beyond
- Title(参考訳): ディープエコー状態Q-ネットワーク(DEQN)と5G以上の動的スペクトル共有への応用
- Authors: Hao-Hsuan Chang, Lingjia Liu, and Yang Yi
- Abstract要約: 限られたトレーニングデータで短時間で高ダイナミックな環境に適応できるディープエコー状態Q-network(DEQN)を導入する。
我々の研究は、限られたトレーニングデータを持つ高ダイナミック環境における効率的なDRLフレームワークの適用に光を当てています。
- 参考スコア(独自算出の注目度): 25.629099713064893
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep reinforcement learning (DRL) has been shown to be successful in many
application domains. Combining recurrent neural networks (RNNs) and DRL further
enables DRL to be applicable in non-Markovian environments by capturing
temporal information. However, training of both DRL and RNNs is known to be
challenging requiring a large amount of training data to achieve convergence.
In many targeted applications, such as those used in the fifth generation (5G)
cellular communication, the environment is highly dynamic while the available
training data is very limited. Therefore, it is extremely important to develop
DRL strategies that are capable of capturing the temporal correlation of the
dynamic environment requiring limited training overhead. In this paper, we
introduce the deep echo state Q-network (DEQN) that can adapt to the highly
dynamic environment in a short period of time with limited training data. We
evaluate the performance of the introduced DEQN method under the dynamic
spectrum sharing (DSS) scenario, which is a promising technology in 5G and
future 6G networks to increase the spectrum utilization. Compared to
conventional spectrum management policy that grants a fixed spectrum band to a
single system for exclusive access, DSS allows the secondary system to share
the spectrum with the primary system. Our work sheds light on the application
of an efficient DRL framework in highly dynamic environments with limited
available training data.
- Abstract(参考訳): 深部強化学習(DRL)は多くのアプリケーション領域で成功している。
リカレントニューラルネットワーク(RNN)とDRLを組み合わせることで、時間的情報をキャプチャすることでDRLを非マルコフ環境に適用することができる。
しかし、DRLとRNNの双方のトレーニングは、収束を達成するために大量のトレーニングデータを必要とすることが知られている。
第5世代(5g)のセルラー通信で使用されるような多くのターゲットアプリケーションでは、利用可能なトレーニングデータが非常に制限されている一方で、環境は非常に動的である。
したがって、限られたトレーニングオーバーヘッドを必要とする動的環境の時間的相関を捉えることができるdrl戦略を開発することは極めて重要である。
本稿では,限られたトレーニングデータを用いて短時間で高ダイナミックな環境に適応できるディープエコー状態q-network(deqn)を提案する。
本稿では,5gネットワークと将来の6gネットワークで有望な技術であるdynamic spectrum sharing (dss) シナリオで導入したdeqn法の性能評価を行い,スペクトル利用率の向上を図る。
排他的アクセスのために単一系に固定スペクトル帯域を付与する従来のスペクトル管理ポリシーと比較して、DSSは二次系を一次系と共有することを可能にする。
我々の研究は、限られたトレーニングデータを持つ高ダイナミック環境における効率的なDRLフレームワークの適用に光を当てています。
関連論文リスト
- SINDy-RL: Interpretable and Efficient Model-Based Reinforcement Learning [5.59265003686955]
SINDy-RLは,SINDyと深層強化学習を組み合わせたフレームワークである。
SINDy-RLは最先端のDRLアルゴリズムに匹敵する性能を達成する。
我々は,ベンチマーク制御環境と流体問題に対するアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2024-03-14T05:17:39Z) - Federated Deep Reinforcement Learning for THz-Beam Search with Limited
CSI [17.602598143822913]
超広帯域でのテラヘルツ(THz)通信は次世代無線ネットワークにおける高データレートの厳密な要求を実現するための有望な技術である。
THz信号の激しい伝搬減衰を効果的に克服するために、大規模なアンテナアレイのビーム方向を見つけることは、迫力のあるニーズである。
本稿では,複数の基地局のTHzビーム探索を高速に行うためのFDRL(Federated Deep reinforcement Learning)を提案する。
論文 参考訳(メタデータ) (2023-04-25T19:28:15Z) - Pervasive Machine Learning for Smart Radio Environments Enabled by
Reconfigurable Intelligent Surfaces [56.35676570414731]
Reconfigurable Intelligent Surfaces(RIS)の新たな技術は、スマート無線環境の実現手段として準備されている。
RISは、無線媒体上の電磁信号の伝搬を動的に制御するための、高度にスケーラブルで低コストで、ハードウェア効率が高く、ほぼエネルギーニュートラルなソリューションを提供する。
このような再構成可能な無線環境におけるRISの密配置に関する大きな課題の1つは、複数の準曲面の効率的な構成である。
論文 参考訳(メタデータ) (2022-05-08T06:21:33Z) - Reinforcement Learning-Empowered Mobile Edge Computing for 6G Edge
Intelligence [76.96698721128406]
モバイルエッジコンピューティング(MEC)は、第5世代(5G)ネットワークなどにおける計算と遅延に敏感なタスクのための新しいパラダイムであると考えた。
本稿では、フリー対応RLに関する総合的な研究レビューと、開発のための洞察を提供する。
論文 参考訳(メタデータ) (2022-01-27T10:02:54Z) - Deep Reinforcement Learning with Spiking Q-learning [56.13654667729119]
スパイクニューラルネットワーク(SNN)は、少ないエネルギー消費で人工知能(AI)を実現することが期待されている。
SNNと深部強化学習(RL)を組み合わせることで、現実的な制御タスクに有望なエネルギー効率の方法を提供する。
論文 参考訳(メタデータ) (2022-01-21T16:42:11Z) - Real-Time GPU-Accelerated Machine Learning Based Multiuser Detection for
5G and Beyond [70.81551587109833]
非線形ビームフォーミングフィルタは、大規模な接続を伴う定常シナリオにおいて、線形アプローチを著しく上回る。
主な課題の1つは、これらのアルゴリズムのリアルタイム実装である。
本稿では,大規模並列化によるAPSMに基づくアルゴリズムの高速化について検討する。
論文 参考訳(メタデータ) (2022-01-13T15:20:45Z) - Dynamic Channel Access via Meta-Reinforcement Learning [0.8223798883838329]
モデル非依存型メタラーニング(MAML)の手法を取り入れたメタDRLフレームワークを提案する。
同じ分布から引き出された異なるタスクに適応するためには、勾配降下がわずかに必要であることが示される。
論文 参考訳(メタデータ) (2021-12-24T15:04:43Z) - Federated Deep Reinforcement Learning for the Distributed Control of
NextG Wireless Networks [16.12495409295754]
次世代(NextG)ネットワークは、拡張現実(AR)やコネクテッド・自律走行車といった、インターネットの触覚を必要とするアプリケーションをサポートすることが期待されている。
データ駆動アプローチは、現在の運用条件に適応するネットワークの能力を改善することができる。
深部RL(DRL)は複雑な環境においても良好な性能を発揮することが示されている。
論文 参考訳(メタデータ) (2021-12-07T03:13:20Z) - Dynamic Network-Assisted D2D-Aided Coded Distributed Learning [59.29409589861241]
本稿では,デバイス間のロードバランシングのための新しいデバイス・ツー・デバイス(D2D)支援型符号化学習手法(D2D-CFL)を提案する。
最小処理時間を達成するための最適圧縮率を導出し、収束時間との接続を確立する。
提案手法は,ユーザが継続的にトレーニングデータを生成するリアルタイム協調アプリケーションに有用である。
論文 参考訳(メタデータ) (2021-11-26T18:44:59Z) - Learning to Continuously Optimize Wireless Resource in a Dynamic
Environment: A Bilevel Optimization Perspective [52.497514255040514]
この研究は、データ駆動メソッドが動的環境でリソース割り当て戦略を継続的に学び、最適化することを可能にする新しいアプローチを開発しています。
学習モデルが新たなエピソードに段階的に適応できるように、連続学習の概念を無線システム設計に組み込むことを提案する。
我々の設計は、異なるデータサンプルにまたがる公平性を保証する、新しい二段階最適化定式化に基づいている。
論文 参考訳(メタデータ) (2021-05-03T07:23:39Z) - Smart Scheduling based on Deep Reinforcement Learning for Cellular
Networks [18.04856086228028]
深部強化学習(DRL)に基づくスマートスケジューリング手法を提案する。
実装フレンドリーな設計、すなわちエージェントのためのスケーラブルなニューラルネットワーク設計と仮想環境トレーニングフレームワークを提供する。
本研究では, DRLベースのスマートスケジューリングが従来のスケジューリング方式を上回り, 実用システムにも適用できることを示した。
論文 参考訳(メタデータ) (2021-03-22T02:09:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。