論文の概要: Causality-Driven Reinforcement Learning for Joint Communication and Sensing
- arxiv url: http://arxiv.org/abs/2409.15329v1
- Date: Sat, 7 Sep 2024 07:15:57 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-06 19:54:40.871650
- Title: Causality-Driven Reinforcement Learning for Joint Communication and Sensing
- Title(参考訳): 共同コミュニケーションとセンシングのための因果性駆動型強化学習
- Authors: Anik Roy, Serene Banerjee, Jishnu Sadasivan, Arnab Sarkar, Soumyajit Dey,
- Abstract要約: 我々は,mMIMOベースのJCAS環境に対する因果関係を介入し,発見することができる因果関係認識型RLエージェントを提案する。
我々は、RLに基づくJCASの因果発見を実現するために、状態依存行動次元選択戦略を用いる。
- 参考スコア(独自算出の注目度): 4.165335263540595
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The next-generation wireless network, 6G and beyond, envisions to integrate communication and sensing to overcome interference, improve spectrum efficiency, and reduce hardware and power consumption. Massive Multiple-Input Multiple Output (mMIMO)-based Joint Communication and Sensing (JCAS) systems realize this integration for 6G applications such as autonomous driving, as it requires accurate environmental sensing and time-critical communication with neighboring vehicles. Reinforcement Learning (RL) is used for mMIMO antenna beamforming in the existing literature. However, the huge search space for actions associated with antenna beamforming causes the learning process for the RL agent to be inefficient due to high beam training overhead. The learning process does not consider the causal relationship between action space and the reward, and gives all actions equal importance. In this work, we explore a causally-aware RL agent which can intervene and discover causal relationships for mMIMO-based JCAS environments, during the training phase. We use a state dependent action dimension selection strategy to realize causal discovery for RL-based JCAS. Evaluation of the causally-aware RL framework in different JCAS scenarios shows the benefit of our proposed framework over baseline methods in terms of the beamforming gain.
- Abstract(参考訳): 次世代無線ネットワークである6Gは、通信とセンシングを統合して干渉を克服し、スペクトル効率を向上し、ハードウェアと電力消費を減らすことを目標としている。
MMIMO (Massive Multiple-Input Multiple Output) ベースのJCAS (Joint Communication and Sensing) システムは、周囲の車両との正確な環境検知と時間クリティカル通信を必要とするため、自律運転のような6Gアプリケーションにこの統合を実現する。
既存の文献では、mMIMOアンテナビームフォーミングには強化学習(RL)が用いられている。
しかし、アンテナビーム形成に関連する動作の巨大な探索空間は、高いビームトレーニングオーバーヘッドのため、RLエージェントの学習プロセスが非効率になる。
学習過程は、行動空間と報酬の間の因果関係を考慮せず、全ての行動が平等に重要である。
そこで本研究では,mMIMOベースのJCAS環境における因果関係を介入し,発見できる因果的認識型RLエージェントについて検討する。
我々は、RLに基づくJCASの因果発見を実現するために、状態依存行動次元選択戦略を用いる。
異なるJCASシナリオにおける因果認識RLフレームワークの評価は、ビームフォーミングゲインの観点からベースライン法よりも、提案フレームワークの利点を示している。
関連論文リスト
- Conservative and Risk-Aware Offline Multi-Agent Reinforcement Learning [33.48496141312585]
強化学習(Reinforcement Learning, RL)は、次世代無線ネットワークのような複雑なエンジニアリングシステムの制御と最適化に広く採用されている。
RLを採用する上で重要な課題は、物理的環境への直接アクセスの必要性である。
本稿では、分散RLと保守的Q-ラーニングを統合したオフラインMARL方式を提案する。
論文 参考訳(メタデータ) (2024-02-13T12:49:22Z) - Effective Communication with Dynamic Feature Compression [25.150266946722]
本研究では,タスクを制御するロボットに対して,観察者が知覚データを伝達しなければならないプロトタイパルシステムについて検討する。
本稿では, 量子化レベルを動的に適応させるために, アンサンブルベクトル量子化変分オートエンコーダ(VQ-VAE)を符号化し, 深層強化学習(DRL)エージェントを訓練する。
我々は、よく知られたCartPole参照制御問題に対して提案手法を検証し、大幅な性能向上を得た。
論文 参考訳(メタデータ) (2024-01-29T15:35:05Z) - Effective Intrusion Detection in Heterogeneous Internet-of-Things Networks via Ensemble Knowledge Distillation-based Federated Learning [52.6706505729803]
我々は、分散化された侵入検知システムの共有モデル(IDS)を協調訓練するために、フェデレートラーニング(FL)を導入する。
FLEKDは従来のモデル融合法よりも柔軟な凝集法を実現する。
実験の結果,提案手法は,速度と性能の両面で,局所訓練と従来のFLよりも優れていた。
論文 参考訳(メタデータ) (2024-01-22T14:16:37Z) - Multiagent Reinforcement Learning with an Attention Mechanism for
Improving Energy Efficiency in LoRa Networks [52.96907334080273]
ネットワーク規模が大きくなるにつれて、パケット衝突によるLoRaネットワークのエネルギー効率は急激に低下する。
マルチエージェント強化学習(MALoRa)に基づく伝送パラメータ割り当てアルゴリズムを提案する。
シミュレーションの結果,MALoRaはベースラインアルゴリズムと比較してシステムEEを著しく改善することがわかった。
論文 参考訳(メタデータ) (2023-09-16T11:37:23Z) - Learning to Sail Dynamic Networks: The MARLIN Reinforcement Learning
Framework for Congestion Control in Tactical Environments [53.08686495706487]
本稿では, 正確な並列化可能なエミュレーション環境を利用して, 戦術ネットワークの環境を再現するRLフレームワークを提案する。
衛星通信(SATCOM)とUHFワイドバンド(UHF)の無線リンク間のボトルネックリンク遷移を再現した条件下で、MARLINエージェントを訓練することにより、我々のRL学習フレームワークを評価する。
論文 参考訳(メタデータ) (2023-06-27T16:15:15Z) - Semantic and Effective Communication for Remote Control Tasks with
Dynamic Feature Compression [23.36744348465991]
ロボットの群れの調整と産業システムのリモート無線制御は、5Gおよびそれ以上のシステムの主要なユースケースである。
本研究では,タスクを制御するアクターに知覚データを伝達しなければならないプロトタイパルシステムについて考察する。
本稿では,量子化レベルを動的に適応させるために,アンサンブルベクトル量子化変分オートエンコーダ(VQ-VAE)を符号化し,深層強化学習(DRL)エージェントを訓練する。
論文 参考訳(メタデータ) (2023-01-14T11:43:56Z) - Semantic-Aware Collaborative Deep Reinforcement Learning Over Wireless
Cellular Networks [82.02891936174221]
複数のエージェントが無線ネットワーク上で協調できるコラボレーティブディープ強化学習(CDRL)アルゴリズムは有望なアプローチである。
本稿では,リソース制約のある無線セルネットワーク上で,意味的にリンクされたDRLタスクを持つ未学習エージェントのグループを効率的に協調させる,新しい意味認識型CDRL手法を提案する。
論文 参考訳(メタデータ) (2021-11-23T18:24:47Z) - Federated Learning over Wireless IoT Networks with Optimized
Communication and Resources [98.18365881575805]
協調学習技術のパラダイムとしてのフェデレートラーニング(FL)は研究の注目を集めている。
無線システム上での高速応答および高精度FLスキームの検証が重要である。
提案する通信効率のよいフェデレーション学習フレームワークは,強い線形速度で収束することを示す。
論文 参考訳(メタデータ) (2021-10-22T13:25:57Z) - Vehicular Cooperative Perception Through Action Branching and Federated
Reinforcement Learning [101.64598586454571]
強化学習に基づく車両関連、リソースブロック(RB)割り当て、協調認識メッセージ(CPM)のコンテンツ選択を可能にする新しいフレームワークが提案されている。
車両全体のトレーニングプロセスをスピードアップするために、フェデレーションRLアプローチが導入されます。
その結果、フェデレーションRLはトレーニングプロセスを改善し、非フェデレーションアプローチと同じ時間内により良いポリシーを達成できることが示された。
論文 参考訳(メタデータ) (2020-12-07T02:09:15Z) - Hierarchical Reinforcement Learning for Relay Selection and Power
Optimization in Two-Hop Cooperative Relay Network [7.5377621697101205]
本研究では,2ホップ協調型中継ネットワークにおいて,送信電力の制約を考慮に入れた停止確率最小化問題について検討する。
我々は、リレー選択と配電のための戦略を学ぶために強化学習(RL)手法を用いる。
階層型強化学習(HRL)フレームワークとトレーニングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-11-10T04:47:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。