論文の概要: A Learning Approach for Joint Design of Event-triggered Control and
Power-Efficient Resource Allocation
- arxiv url: http://arxiv.org/abs/2205.07070v1
- Date: Sat, 14 May 2022 14:16:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-19 03:18:30.603601
- Title: A Learning Approach for Joint Design of Event-triggered Control and
Power-Efficient Resource Allocation
- Title(参考訳): イベントトリガ制御と電力効率の高い資源配分の合同設計のための学習アプローチ
- Authors: Atefeh Termehchi, Mehdi Rasti
- Abstract要約: 本研究では,第5世代(5G)無線ネットワークにおけるイベントトリガー制御とエネルギー効率の高い資源配分の連成設計問題について検討する。
本研究では,4つのポリシーを同時に学習するモデルレス階層型強化学習手法を提案する。
シミュレーションの結果,提案手法はシミュレートされたICPSを適切に制御し,アクチュエータの入力とダウンリンク電力消費量を著しく削減できることがわかった。
- 参考スコア(独自算出の注目度): 3.822543555265593
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: In emerging Industrial Cyber-Physical Systems (ICPSs), the joint design of
communication and control sub-systems is essential, as these sub-systems are
interconnected. In this paper, we study the joint design problem of an
event-triggered control and an energy-efficient resource allocation in a fifth
generation (5G) wireless network. We formally state the problem as a
multi-objective optimization one, aiming to minimize the number of updates on
the actuators' input and the power consumption in the downlink transmission. To
address the problem, we propose a model-free hierarchical reinforcement
learning approach \textcolor{blue}{with uniformly ultimate boundedness
stability guarantee} that learns four policies simultaneously. These policies
contain an update time policy on the actuators' input, a control policy, and
energy-efficient sub-carrier and power allocation policies. Our simulation
results show that the proposed approach can properly control a simulated ICPS
and significantly decrease the number of updates on the actuators' input as
well as the downlink power consumption.
- Abstract(参考訳): 産業用サイバー物理システム(ICPS)では、これらのサブシステムが相互接続されているため、通信と制御サブシステムの共同設計が不可欠である。
本稿では,第5世代(5G)無線ネットワークにおけるイベントトリガー制御とエネルギー効率の高い資源配分の連成設計問題について検討する。
本稿では,アクチュエータの入力数とダウンリンク伝送の消費電力を最小限に抑えることを目的として,マルチ目的最適化問題としてこの問題を正式に表明する。
この問題に対処するために,4つのポリシーを同時に学習するモデルフリー階層強化学習手法 \textcolor{blue}{with uniformly ultimate boundedness stability guarantee}を提案する。
これらのポリシーには、アクチュエータの入力に対する更新時間ポリシー、制御ポリシー、エネルギー効率の低いサブキャリアと電力割り当てポリシーが含まれる。
シミュレーションの結果,提案手法はシミュレートされたICPSを適切に制御し,アクチュエータの入力とダウンリンク電力消費量を著しく削減できることがわかった。
関連論文リスト
- Communication-Control Codesign for Large-Scale Wireless Networked Control Systems [80.30532872347668]
無線ネットワーク制御システム(Wireless Networked Control Systems, WNCS)は、ドローン群や自律ロボットなどのアプリケーションにおいて柔軟な制御を可能にする産業用4.0に必須である。
本稿では,マルチ状態マルコフブロックフェーディングチャネル上で限られた無線リソースを共有するセンサやアクチュエータを用いて,複数の制御ループ間の相関ダイナミクスを捕捉する実用的WNCSモデルを提案する。
本研究では,ハイブリッドな動作空間を効率的に処理し,通信制御の相関関係を捉え,疎域変数や浮動小数点制御の入力に拘わらず堅牢なトレーニングを確実にするDeep Reinforcement Learning (DRL)アルゴリズムを開発した。
論文 参考訳(メタデータ) (2024-10-15T06:28:21Z) - Integrating DeepRL with Robust Low-Level Control in Robotic Manipulators for Non-Repetitive Reaching Tasks [0.24578723416255746]
ロボット工学では、現代の戦略は学習に基づくもので、複雑なブラックボックスの性質と解釈可能性の欠如が特徴である。
本稿では, 深部強化学習(DRL)に基づく衝突のない軌道プランナと, 自動調整型低レベル制御戦略を統合することを提案する。
論文 参考訳(メタデータ) (2024-02-04T15:54:03Z) - Distributed-Training-and-Execution Multi-Agent Reinforcement Learning
for Power Control in HetNet [48.96004919910818]
We propose a multi-agent Deep reinforcement learning (MADRL) based power control scheme for the HetNet。
エージェント間の協調を促進するために,MADRLシステムのためのペナルティベースQラーニング(PQL)アルゴリズムを開発した。
このように、エージェントのポリシーは、他のエージェントによってより容易に学習でき、より効率的なコラボレーションプロセスをもたらす。
論文 参考訳(メタデータ) (2022-12-15T17:01:56Z) - Deep Learning for Wireless Networked Systems: a joint
Estimation-Control-Scheduling Approach [47.29474858956844]
ワイヤレスネットワーク制御システム(Wireless Networked Control System, WNCS)は、無線通信を介してセンサ、コントローラ、アクチュエータを接続する技術であり、産業用 4.0 時代において、高度にスケーラブルで低コストな制御システムの展開を可能にする技術である。
WNCSにおける制御と通信の密接な相互作用にもかかわらず、既存のほとんどの研究は分離設計アプローチを採用している。
モデルフリーデータとモデルベースデータの両方を利用する制御と最適化のための,DRLに基づく新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-10-03T01:29:40Z) - Active Distribution System Coordinated Control Method via Artificial
Intelligence [0.0]
通常の電圧と周波数で確実に確実に電力を供給するためには、システムを制御する必要がある。
自己認識機構を持つニューラルネットワークは,システムの最適化に役立つ可能性が示唆された。
論文 参考訳(メタデータ) (2022-07-12T13:46:38Z) - Stabilizing Voltage in Power Distribution Networks via Multi-Agent
Reinforcement Learning with Transformer [128.19212716007794]
本稿では,変圧器を用いたマルチエージェント・アクタ・クリティカル・フレームワーク(T-MAAC)を提案する。
さらに、電圧制御タスクに適した新しい補助タスクトレーニングプロセスを採用し、サンプル効率を向上する。
論文 参考訳(メタデータ) (2022-06-08T07:48:42Z) - Deep Reinforcement Learning Based Multidimensional Resource Management
for Energy Harvesting Cognitive NOMA Communications [64.1076645382049]
エネルギー収穫(EH)、認知無線(CR)、非直交多重アクセス(NOMA)の組み合わせはエネルギー効率を向上させるための有望な解決策である。
本稿では,決定論的CR-NOMA IoTシステムにおけるスペクトル,エネルギー,時間資源管理について検討する。
論文 参考訳(メタデータ) (2021-09-17T08:55:48Z) - Scheduling and Power Control for Wireless Multicast Systems via Deep
Reinforcement Learning [33.737301955006345]
無線システムにおけるマルチキャストは、コンテンツ中心ネットワークにおけるユーザ要求の冗長性を利用する方法である。
電力制御と最適スケジューリングは、衰退中の無線マルチキャストネットワークの性能を著しく向上させることができる。
提案手法により, 大規模システムに対して, 電力制御ポリシを学習可能であることを示す。
論文 参考訳(メタデータ) (2020-09-27T15:59:44Z) - Learning Event-triggered Control from Data through Joint Optimization [7.391641422048646]
イベントトリガー制御戦略のモデルフリー学習のためのフレームワークを提案する。
階層的強化学習に基づく新しいアルゴリズムを提案する。
得られたアルゴリズムは, 資源の節約や非線形・高次元システムへのシームレスなスケールで, 高性能な制御を実現する。
論文 参考訳(メタデータ) (2020-08-11T14:15:38Z) - Online Reinforcement Learning Control by Direct Heuristic Dynamic
Programming: from Time-Driven to Event-Driven [80.94390916562179]
時間駆動学習は、新しいデータが到着すると予測モデルのパラメータを継続的に更新する機械学習手法を指す。
ノイズなどの重要なシステムイベントによる時間駆動型dHDPの更新を防止することが望ましい。
イベント駆動型dHDPアルゴリズムは,従来の時間駆動型dHDPと比較して動作することを示す。
論文 参考訳(メタデータ) (2020-06-16T05:51:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。