論文の概要: Shielded Controller Units for RL with Operational Constraints Applied to Remote Microgrids
- arxiv url: http://arxiv.org/abs/2512.01046v1
- Date: Sun, 30 Nov 2025 19:28:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-02 19:46:34.558903
- Title: Shielded Controller Units for RL with Operational Constraints Applied to Remote Microgrids
- Title(参考訳): 遠隔マイクログリッドに適用した操作制約付きRL用シールド制御ユニット
- Authors: Hadi Nekoei, Alexandre Blondin Massé, Rachid Hassani, Sarath Chandar, Vincent Mai,
- Abstract要約: 強化学習(Reinforcement Learning, RL)は、不確実性の下で複雑なシステムにおける意思決定を最適化するための強力なフレームワークである。
本稿では,システムダイナミクスの事前知識を活用する体系的かつ解釈可能なアプローチであるシールド制御ユニット(SCU)を紹介する。
本研究では,厳密な運用要件を持つ遠隔マイクログリッド最適化タスクにおけるSCUの有効性を示す。
- 参考スコア(独自算出の注目度): 50.64533198075622
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Reinforcement learning (RL) is a powerful framework for optimizing decision-making in complex systems under uncertainty, an essential challenge in real-world settings, particularly in the context of the energy transition. A representative example is remote microgrids that supply power to communities disconnected from the main grid. Enabling the energy transition in such systems requires coordinated control of renewable sources like wind turbines, alongside fuel generators and batteries, to meet demand while minimizing fuel consumption and battery degradation under exogenous and intermittent load and wind conditions. These systems must often conform to extensive regulations and complex operational constraints. To ensure that RL agents respect these constraints, it is crucial to provide interpretable guarantees. In this paper, we introduce Shielded Controller Units (SCUs), a systematic and interpretable approach that leverages prior knowledge of system dynamics to ensure constraint satisfaction. Our shield synthesis methodology, designed for real-world deployment, decomposes the environment into a hierarchical structure where each SCU explicitly manages a subset of constraints. We demonstrate the effectiveness of SCUs on a remote microgrid optimization task with strict operational requirements. The RL agent, equipped with SCUs, achieves a 24% reduction in fuel consumption without increasing battery degradation, outperforming other baselines while satisfying all constraints. We hope SCUs contribute to the safe application of RL to the many decision-making challenges linked to the energy transition.
- Abstract(参考訳): 強化学習(Reinforcement Learning、RL)は、不確実性の下で複雑なシステムにおける意思決定を最適化するための強力なフレームワークであり、特にエネルギー遷移の文脈において、現実世界の設定において重要な課題である。
代表的な例として、メイングリッドから切断されたコミュニティに電力を供給するリモートマイクログリッドがある。
このようなシステムにおけるエネルギー移行を実現するためには、風力タービンなどの再生可能エネルギー源を燃料発生器や電池とともに協調的に制御し、燃料消費を最小化し、外因性および断続的な負荷と風環境下でのバッテリー劣化を最小化する必要がある。
これらのシステムは、しばしば広範な規制や複雑な運用上の制約に従わなければならない。
RLエージェントがこれらの制約を尊重することを保証するためには、解釈可能な保証を提供することが不可欠である。
本稿では,システムダイナミクスの事前知識を活用して制約満足度を確保する体系的かつ解釈可能なアプローチであるシールドドコントローラユニット(SCU)を紹介する。
実世界展開用に設計されたシールド合成手法では,環境を階層構造に分解し,各SCUが制約のサブセットを明示的に管理する。
本研究では,厳密な運用要件を持つ遠隔マイクログリッド最適化タスクにおけるSCUの有効性を示す。
SCUを装備したRLエージェントは、バッテリ劣化を増大させることなく燃料消費の24%削減を実現し、全ての制約を満たすとともに、他のベースラインよりも優れる。
我々は、SCUがエネルギー移行に関連する多くの意思決定課題にRLの安全な適用に寄与することを願っている。
関連論文リスト
- Heterogeneous Multi-Agent Proximal Policy Optimization for Power Distribution System Restoration [4.46185759083096]
本稿では, 相互接続したマイクログリッド間の協調修復を実現するために, 不均一・エージェント強化学習フレームワークを適用した。
その結果、HARLフレームワークにマイクログリッドレベルの不均一性を組み込むことで、複雑なPSD修復のためのスケーラブルで安定で制約対応のソリューションが得られることが示された。
論文 参考訳(メタデータ) (2025-11-18T18:23:35Z) - Joint Resource Management for Energy-efficient UAV-assisted SWIPT-MEC: A Deep Reinforcement Learning Approach [50.52139512096988]
6G Internet of Things (IoT)ネットワークは、地上インフラストラクチャが利用できない遠隔地や災害シナリオにおいて、課題に直面している。
本稿では、指向性アンテナにより強化された新しい無人航空機(UAV)支援コンピューティングシステムを提案する。
論文 参考訳(メタデータ) (2025-05-06T06:46:19Z) - Surrogate Empowered Sim2Real Transfer of Deep Reinforcement Learning for
ORC Superheat Control [12.567922037611261]
本稿では,ORCスーパーヒート制御のためのSim2Real転送学習型DRL制御法を提案する。
実験結果から,ORC制御問題におけるDRLのトレーニング速度を大幅に向上することがわかった。
論文 参考訳(メタデータ) (2023-08-05T01:59:44Z) - Distributed Energy Management and Demand Response in Smart Grids: A
Multi-Agent Deep Reinforcement Learning Framework [53.97223237572147]
本稿では、自律制御と再生可能エネルギー資源のスマート電力グリッドシステムへの統合のための多エージェント深層強化学習(DRL)フレームワークを提案する。
特に,提案フレームワークは,住宅利用者に対する需要応答 (DR) と分散エネルギー管理 (DEM) を共同で検討している。
論文 参考訳(メタデータ) (2022-11-29T01:18:58Z) - Deep Reinforcement Learning for Wireless Scheduling in Distributed Networked Control [37.10638636086814]
完全分散無線制御システム(WNCS)の周波数チャネル数に制限のある結合アップリンクとダウンリンクのスケジューリング問題を考える。
深層強化学習(DRL)に基づくフレームワークを開発した。
DRLにおける大きなアクション空間の課題に対処するために,新しいアクション空間削減法とアクション埋め込み法を提案する。
論文 参考訳(メタデータ) (2021-09-26T11:27:12Z) - Deep Reinforcement Learning Based Multidimensional Resource Management
for Energy Harvesting Cognitive NOMA Communications [64.1076645382049]
エネルギー収穫(EH)、認知無線(CR)、非直交多重アクセス(NOMA)の組み合わせはエネルギー効率を向上させるための有望な解決策である。
本稿では,決定論的CR-NOMA IoTシステムにおけるスペクトル,エネルギー,時間資源管理について検討する。
論文 参考訳(メタデータ) (2021-09-17T08:55:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。