論文の概要: Hybrid Imitation Learning for Real-Time Service Restoration in Resilient
Distribution Systems
- arxiv url: http://arxiv.org/abs/2011.14458v3
- Date: Mon, 10 May 2021 16:34:23 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-07 08:54:38.809200
- Title: Hybrid Imitation Learning for Real-Time Service Restoration in Resilient
Distribution Systems
- Title(参考訳): レジリエント配電系統における実時間サービス復旧のためのハイブリッド模倣学習
- Authors: Yichen Zhang and Feng Qiu and Tianqi Hong and Zhaoyu Wang and Fangxing
Li
- Abstract要約: 自己修復能力は、レジリエントな分散システムにとって最も重要な要素の1つである。
これらのエージェントは、リアルタイムの要件を満たすために事前に設計された決定ポリシーを備えるべきである。
本稿では,そのような政策を訓練するための模倣学習(IL)フレームワークを提案する。
- 参考スコア(独自算出の注目度): 4.634828363888443
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Self-healing capability is one of the most critical factors for a resilient
distribution system, which requires intelligent agents to automatically perform
restorative actions online, including network reconfiguration and reactive
power dispatch. These agents should be equipped with a predesigned decision
policy to meet real-time requirements and handle highly complex $N-k$
scenarios. The disturbance randomness hampers the application of
exploration-dominant algorithms like traditional reinforcement learning (RL),
and the agent training problem under $N-k$ scenarios has not been thoroughly
solved. In this paper, we propose the imitation learning (IL) framework to
train such policies, where the agent will interact with an expert to learn its
optimal policy, and therefore significantly improve the training efficiency
compared with the RL methods. To handle tie-line operations and reactive power
dispatch simultaneously, we design a hybrid policy network for such a
discrete-continuous hybrid action space. We employ the 33-node system under
$N-k$ disturbances to verify the proposed framework.
- Abstract(参考訳): 自己修復能力は、ネットワーク再構成やリアクティブ電源のディスパッチなど、インテリジェントエージェントがオンラインで再利用可能なアクションを自動的に実行する必要があるレジリエントな分散システムにとって、最も重要な要素の1つだ。
これらのエージェントは、リアルタイム要件を満たし、非常に複雑な$N-k$シナリオを処理するために、事前に設計された決定ポリシーを備えるべきである。
乱れランダム性は、従来の強化学習(rl)のような探索優位アルゴリズムの適用を妨げ、n-k$シナリオのエージェントトレーニング問題は、完全には解決されていない。
本稿では,エージェントが専門家と対話してその最適方針を学習し,RL法と比較してトレーニング効率を著しく向上する,このような政策を訓練するための模倣学習(IL)フレームワークを提案する。
タイライン操作とリアクティブ電力供給を同時に扱うために,このような離散連続ハイブリッドアクション空間のためのハイブリッドポリシネットワークを設計する。
提案手法の検証には,33ノードを$N-k$外乱で行う。
関連論文リスト
- Imitation Learning based Alternative Multi-Agent Proximal Policy
Optimization for Well-Formed Swarm-Oriented Pursuit Avoidance [15.498559530889839]
本稿では,分散学習に基づく代替的マルチエージェント・プロキシ・ポリシー最適化(IA-MAPPO)アルゴリズムを提案する。
擬似学習を利用して生成コントローラを分散化し,通信オーバーヘッドを低減し,スケーラビリティを向上させる。
シミュレーションの結果,IA-MAPPOの有効性が検証され,広範囲なアブレーション実験により,通信オーバーヘッドが著しく減少する集中型解に匹敵する性能が示された。
論文 参考訳(メタデータ) (2023-11-06T06:58:16Z) - Hybrid Reinforcement Learning for Optimizing Pump Sustainability in
Real-World Water Distribution Networks [55.591662978280894]
本稿では,実世界の配水ネットワーク(WDN)のリアルタイム制御を強化するために,ポンプスケジューリング最適化問題に対処する。
我々の主な目的は、エネルギー消費と運用コストを削減しつつ、物理的な運用上の制約を遵守することである。
進化に基づくアルゴリズムや遺伝的アルゴリズムのような伝統的な最適化手法は、収束保証の欠如によってしばしば不足する。
論文 参考訳(メタデータ) (2023-10-13T21:26:16Z) - Distributed-Training-and-Execution Multi-Agent Reinforcement Learning
for Power Control in HetNet [48.96004919910818]
We propose a multi-agent Deep reinforcement learning (MADRL) based power control scheme for the HetNet。
エージェント間の協調を促進するために,MADRLシステムのためのペナルティベースQラーニング(PQL)アルゴリズムを開発した。
このように、エージェントのポリシーは、他のエージェントによってより容易に学習でき、より効率的なコラボレーションプロセスをもたらす。
論文 参考訳(メタデータ) (2022-12-15T17:01:56Z) - Safety Correction from Baseline: Towards the Risk-aware Policy in
Robotics via Dual-agent Reinforcement Learning [64.11013095004786]
本稿では,ベースラインと安全エージェントからなる二重エージェント型安全強化学習戦略を提案する。
このような分離されたフレームワークは、RLベースの制御に対して高い柔軟性、データ効率、リスク認識を可能にする。
提案手法は,難易度の高いロボットの移動・操作作業において,最先端の安全RLアルゴリズムより優れる。
論文 参考訳(メタデータ) (2022-12-14T03:11:25Z) - Curriculum Based Reinforcement Learning of Grid Topology Controllers to
Prevent Thermal Cascading [0.19116784879310028]
本稿では,電力系統演算子のドメイン知識を強化学習フレームワークに統合する方法について述べる。
環境を改良することにより、報酬チューニングを伴うカリキュラムベースのアプローチをトレーニング手順に組み込む。
複数のシナリオに対する並列トレーニングアプローチは、エージェントをいくつかのシナリオに偏りなくし、グリッド操作の自然変動に対して堅牢にするために使用される。
論文 参考訳(メタデータ) (2021-12-18T20:32:05Z) - Semantic-Aware Collaborative Deep Reinforcement Learning Over Wireless
Cellular Networks [82.02891936174221]
複数のエージェントが無線ネットワーク上で協調できるコラボレーティブディープ強化学習(CDRL)アルゴリズムは有望なアプローチである。
本稿では,リソース制約のある無線セルネットワーク上で,意味的にリンクされたDRLタスクを持つ未学習エージェントのグループを効率的に協調させる,新しい意味認識型CDRL手法を提案する。
論文 参考訳(メタデータ) (2021-11-23T18:24:47Z) - Adaptive Stochastic ADMM for Decentralized Reinforcement Learning in
Edge Industrial IoT [106.83952081124195]
強化学習 (Reinforcement Learning, RL) は, 意思決定および最適制御プロセスのための有望な解法として広く研究されている。
本稿では,Adaptive ADMM (asI-ADMM)アルゴリズムを提案する。
実験の結果,提案アルゴリズムは通信コストやスケーラビリティの観点から技術状況よりも優れており,複雑なIoT環境に適応できることがわかった。
論文 参考訳(メタデータ) (2021-06-30T16:49:07Z) - A Heuristically Assisted Deep Reinforcement Learning Approach for
Network Slice Placement [0.7885276250519428]
本稿では,Deep Reinforcement Learning(DRL)に基づくハイブリッド配置ソリューションと,Power of Two Choices原則に基づく専用最適化を提案する。
提案したHuristically-Assisted DRL (HA-DRL) は,他の最先端手法と比較して学習プロセスの高速化と資源利用の促進を可能にする。
論文 参考訳(メタデータ) (2021-05-14T10:04:17Z) - MUSBO: Model-based Uncertainty Regularized and Sample Efficient Batch
Optimization for Deployment Constrained Reinforcement Learning [108.79676336281211]
データ収集とオンライン学習のための新しいポリシーの継続的展開はコスト非効率か非現実的かのどちらかである。
モデルベース不確実性正規化とサンプル効率的なバッチ最適化という新しいアルゴリズム学習フレームワークを提案する。
本フレームワークは,各デプロイメントの新規で高品質なサンプルを発見し,効率的なデータ収集を実現する。
論文 参考訳(メタデータ) (2021-02-23T01:30:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。