論文の概要: Deep Echo State Q-Network (DEQN) and Its Application in Dynamic Spectrum
Sharing for 5G and Beyond
- arxiv url: http://arxiv.org/abs/2010.05449v1
- Date: Mon, 12 Oct 2020 04:44:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-08 07:35:34.221010
- Title: Deep Echo State Q-Network (DEQN) and Its Application in Dynamic Spectrum
Sharing for 5G and Beyond
- Title(参考訳): ディープエコー状態Q-ネットワーク(DEQN)と5G以上の動的スペクトル共有への応用
- Authors: Hao-Hsuan Chang, Lingjia Liu, and Yang Yi
- Abstract要約: 限られたトレーニングデータで短時間で高ダイナミックな環境に適応できるディープエコー状態Q-network(DEQN)を導入する。
我々の研究は、限られたトレーニングデータを持つ高ダイナミック環境における効率的なDRLフレームワークの適用に光を当てています。
- 参考スコア(独自算出の注目度): 25.629099713064893
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep reinforcement learning (DRL) has been shown to be successful in many
application domains. Combining recurrent neural networks (RNNs) and DRL further
enables DRL to be applicable in non-Markovian environments by capturing
temporal information. However, training of both DRL and RNNs is known to be
challenging requiring a large amount of training data to achieve convergence.
In many targeted applications, such as those used in the fifth generation (5G)
cellular communication, the environment is highly dynamic while the available
training data is very limited. Therefore, it is extremely important to develop
DRL strategies that are capable of capturing the temporal correlation of the
dynamic environment requiring limited training overhead. In this paper, we
introduce the deep echo state Q-network (DEQN) that can adapt to the highly
dynamic environment in a short period of time with limited training data. We
evaluate the performance of the introduced DEQN method under the dynamic
spectrum sharing (DSS) scenario, which is a promising technology in 5G and
future 6G networks to increase the spectrum utilization. Compared to
conventional spectrum management policy that grants a fixed spectrum band to a
single system for exclusive access, DSS allows the secondary system to share
the spectrum with the primary system. Our work sheds light on the application
of an efficient DRL framework in highly dynamic environments with limited
available training data.
- Abstract(参考訳): 深部強化学習(DRL)は多くのアプリケーション領域で成功している。
リカレントニューラルネットワーク(RNN)とDRLを組み合わせることで、時間的情報をキャプチャすることでDRLを非マルコフ環境に適用することができる。
しかし、DRLとRNNの双方のトレーニングは、収束を達成するために大量のトレーニングデータを必要とすることが知られている。
第5世代(5g)のセルラー通信で使用されるような多くのターゲットアプリケーションでは、利用可能なトレーニングデータが非常に制限されている一方で、環境は非常に動的である。
したがって、限られたトレーニングオーバーヘッドを必要とする動的環境の時間的相関を捉えることができるdrl戦略を開発することは極めて重要である。
本稿では,限られたトレーニングデータを用いて短時間で高ダイナミックな環境に適応できるディープエコー状態q-network(deqn)を提案する。
本稿では,5gネットワークと将来の6gネットワークで有望な技術であるdynamic spectrum sharing (dss) シナリオで導入したdeqn法の性能評価を行い,スペクトル利用率の向上を図る。
排他的アクセスのために単一系に固定スペクトル帯域を付与する従来のスペクトル管理ポリシーと比較して、DSSは二次系を一次系と共有することを可能にする。
我々の研究は、限られたトレーニングデータを持つ高ダイナミック環境における効率的なDRLフレームワークの適用に光を当てています。
関連論文リスト
- Dynamic Spectrum Access for Ambient Backscatter Communication-assisted D2D Systems with Quantum Reinforcement Learning [68.63990729719369]
無線スペクトルは乏しくなり、D2D通信のスペクトル効率は低い。
本稿では, 周囲RF信号の後方散乱を可能にするために, 環境後方散乱通信技術をD2Dデバイスに統合することを目的とする。
我々は、より少ないトレーニングパラメータでより高速な収束率を達成することができる新しい量子強化学習(RL)アルゴリズムを開発した。
論文 参考訳(メタデータ) (2024-10-23T15:36:43Z) - Spectrum Sharing using Deep Reinforcement Learning in Vehicular Networks [0.14999444543328289]
本稿では、DQNモデルの有効性を実証し、スペクトル共有効率を向上させるためのいくつかの結果と分析を行った。
SARLモデルとMARLモデルの両方がV2V通信の成功率を示し、トレーニングが進むにつれてRLモデルの累積報酬が最大に達する。
論文 参考訳(メタデータ) (2024-10-16T12:59:59Z) - Parallel Digital Twin-driven Deep Reinforcement Learning for User Association and Load Balancing in Dynamic Wireless Networks [17.041443813376546]
ネットワークにおけるユーザアソシエーションとロードバランシングのための並列ディジタルツイン(DT)駆動DRL法を提案する。
提案手法では,分散DRL戦略を用いて様々なユーザ数を処理するとともに,より高速な収束を実現するために改良されたニューラルネットワーク構造を利用する。
並列DT駆動DRL法は実環境訓練と同等の性能を示す。
論文 参考訳(メタデータ) (2024-10-10T04:54:48Z) - Pervasive Machine Learning for Smart Radio Environments Enabled by
Reconfigurable Intelligent Surfaces [56.35676570414731]
Reconfigurable Intelligent Surfaces(RIS)の新たな技術は、スマート無線環境の実現手段として準備されている。
RISは、無線媒体上の電磁信号の伝搬を動的に制御するための、高度にスケーラブルで低コストで、ハードウェア効率が高く、ほぼエネルギーニュートラルなソリューションを提供する。
このような再構成可能な無線環境におけるRISの密配置に関する大きな課題の1つは、複数の準曲面の効率的な構成である。
論文 参考訳(メタデータ) (2022-05-08T06:21:33Z) - Reinforcement Learning-Empowered Mobile Edge Computing for 6G Edge
Intelligence [76.96698721128406]
モバイルエッジコンピューティング(MEC)は、第5世代(5G)ネットワークなどにおける計算と遅延に敏感なタスクのための新しいパラダイムであると考えた。
本稿では、フリー対応RLに関する総合的な研究レビューと、開発のための洞察を提供する。
論文 参考訳(メタデータ) (2022-01-27T10:02:54Z) - Real-Time GPU-Accelerated Machine Learning Based Multiuser Detection for
5G and Beyond [70.81551587109833]
非線形ビームフォーミングフィルタは、大規模な接続を伴う定常シナリオにおいて、線形アプローチを著しく上回る。
主な課題の1つは、これらのアルゴリズムのリアルタイム実装である。
本稿では,大規模並列化によるAPSMに基づくアルゴリズムの高速化について検討する。
論文 参考訳(メタデータ) (2022-01-13T15:20:45Z) - Dynamic Channel Access via Meta-Reinforcement Learning [0.8223798883838329]
モデル非依存型メタラーニング(MAML)の手法を取り入れたメタDRLフレームワークを提案する。
同じ分布から引き出された異なるタスクに適応するためには、勾配降下がわずかに必要であることが示される。
論文 参考訳(メタデータ) (2021-12-24T15:04:43Z) - Federated Deep Reinforcement Learning for the Distributed Control of
NextG Wireless Networks [16.12495409295754]
次世代(NextG)ネットワークは、拡張現実(AR)やコネクテッド・自律走行車といった、インターネットの触覚を必要とするアプリケーションをサポートすることが期待されている。
データ駆動アプローチは、現在の運用条件に適応するネットワークの能力を改善することができる。
深部RL(DRL)は複雑な環境においても良好な性能を発揮することが示されている。
論文 参考訳(メタデータ) (2021-12-07T03:13:20Z) - Dynamic Network-Assisted D2D-Aided Coded Distributed Learning [59.29409589861241]
本稿では,デバイス間のロードバランシングのための新しいデバイス・ツー・デバイス(D2D)支援型符号化学習手法(D2D-CFL)を提案する。
最小処理時間を達成するための最適圧縮率を導出し、収束時間との接続を確立する。
提案手法は,ユーザが継続的にトレーニングデータを生成するリアルタイム協調アプリケーションに有用である。
論文 参考訳(メタデータ) (2021-11-26T18:44:59Z) - Learning to Continuously Optimize Wireless Resource in a Dynamic
Environment: A Bilevel Optimization Perspective [52.497514255040514]
この研究は、データ駆動メソッドが動的環境でリソース割り当て戦略を継続的に学び、最適化することを可能にする新しいアプローチを開発しています。
学習モデルが新たなエピソードに段階的に適応できるように、連続学習の概念を無線システム設計に組み込むことを提案する。
我々の設計は、異なるデータサンプルにまたがる公平性を保証する、新しい二段階最適化定式化に基づいている。
論文 参考訳(メタデータ) (2021-05-03T07:23:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。