論文の概要: Hybrid Imitation Learning for Real-Time Service Restoration in Resilient
Distribution Systems
- arxiv url: http://arxiv.org/abs/2011.14458v3
- Date: Mon, 10 May 2021 16:34:23 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-07 08:54:38.809200
- Title: Hybrid Imitation Learning for Real-Time Service Restoration in Resilient
Distribution Systems
- Title(参考訳): レジリエント配電系統における実時間サービス復旧のためのハイブリッド模倣学習
- Authors: Yichen Zhang and Feng Qiu and Tianqi Hong and Zhaoyu Wang and Fangxing
Li
- Abstract要約: 自己修復能力は、レジリエントな分散システムにとって最も重要な要素の1つである。
これらのエージェントは、リアルタイムの要件を満たすために事前に設計された決定ポリシーを備えるべきである。
本稿では,そのような政策を訓練するための模倣学習(IL)フレームワークを提案する。
- 参考スコア(独自算出の注目度): 4.634828363888443
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Self-healing capability is one of the most critical factors for a resilient
distribution system, which requires intelligent agents to automatically perform
restorative actions online, including network reconfiguration and reactive
power dispatch. These agents should be equipped with a predesigned decision
policy to meet real-time requirements and handle highly complex $N-k$
scenarios. The disturbance randomness hampers the application of
exploration-dominant algorithms like traditional reinforcement learning (RL),
and the agent training problem under $N-k$ scenarios has not been thoroughly
solved. In this paper, we propose the imitation learning (IL) framework to
train such policies, where the agent will interact with an expert to learn its
optimal policy, and therefore significantly improve the training efficiency
compared with the RL methods. To handle tie-line operations and reactive power
dispatch simultaneously, we design a hybrid policy network for such a
discrete-continuous hybrid action space. We employ the 33-node system under
$N-k$ disturbances to verify the proposed framework.
- Abstract(参考訳): 自己修復能力は、ネットワーク再構成やリアクティブ電源のディスパッチなど、インテリジェントエージェントがオンラインで再利用可能なアクションを自動的に実行する必要があるレジリエントな分散システムにとって、最も重要な要素の1つだ。
これらのエージェントは、リアルタイム要件を満たし、非常に複雑な$N-k$シナリオを処理するために、事前に設計された決定ポリシーを備えるべきである。
乱れランダム性は、従来の強化学習(rl)のような探索優位アルゴリズムの適用を妨げ、n-k$シナリオのエージェントトレーニング問題は、完全には解決されていない。
本稿では,エージェントが専門家と対話してその最適方針を学習し,RL法と比較してトレーニング効率を著しく向上する,このような政策を訓練するための模倣学習(IL)フレームワークを提案する。
タイライン操作とリアクティブ電力供給を同時に扱うために,このような離散連続ハイブリッドアクション空間のためのハイブリッドポリシネットワークを設計する。
提案手法の検証には,33ノードを$N-k$外乱で行う。
関連論文リスト
- Enhancing Spectrum Efficiency in 6G Satellite Networks: A GAIL-Powered Policy Learning via Asynchronous Federated Inverse Reinforcement Learning [67.95280175998792]
ビームフォーミング,スペクトルアロケーション,リモートユーザ機器(RUE)アソシエイトを最適化するために,GAILを利用した新しいポリシー学習手法を提案する。
手動チューニングなしで報酬関数を自動的に学習するために、逆RL(IRL)を用いる。
提案手法は従来のRL手法よりも優れており,コンバージェンスと報酬値の14.6%の改善が達成されている。
論文 参考訳(メタデータ) (2024-09-27T13:05:02Z) - Adaptive $Q$-Network: On-the-fly Target Selection for Deep Reinforcement Learning [18.579378919155864]
我々は、追加のサンプルを必要としない最適化手順の非定常性を考慮するために、Adaptive $Q$Network (AdaQN)を提案する。
AdaQNは理論上は健全で、MuJoCo制御問題やAtari 2600のゲームで実証的に検証されている。
論文 参考訳(メタデータ) (2024-05-25T11:57:43Z) - Intelligent Hybrid Resource Allocation in MEC-assisted RAN Slicing Network [72.2456220035229]
我々は,協調型MEC支援RANスライシングシステムにおける異種サービス要求に対するSSRの最大化を目指す。
最適ハイブリッドRAポリシーをインテリジェントに学習するためのRGRLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-05-02T01:36:13Z) - Hybrid Reinforcement Learning for Optimizing Pump Sustainability in
Real-World Water Distribution Networks [55.591662978280894]
本稿では,実世界の配水ネットワーク(WDN)のリアルタイム制御を強化するために,ポンプスケジューリング最適化問題に対処する。
我々の主な目的は、エネルギー消費と運用コストを削減しつつ、物理的な運用上の制約を遵守することである。
進化に基づくアルゴリズムや遺伝的アルゴリズムのような伝統的な最適化手法は、収束保証の欠如によってしばしば不足する。
論文 参考訳(メタデータ) (2023-10-13T21:26:16Z) - Distributed-Training-and-Execution Multi-Agent Reinforcement Learning
for Power Control in HetNet [48.96004919910818]
We propose a multi-agent Deep reinforcement learning (MADRL) based power control scheme for the HetNet。
エージェント間の協調を促進するために,MADRLシステムのためのペナルティベースQラーニング(PQL)アルゴリズムを開発した。
このように、エージェントのポリシーは、他のエージェントによってより容易に学習でき、より効率的なコラボレーションプロセスをもたらす。
論文 参考訳(メタデータ) (2022-12-15T17:01:56Z) - Curriculum Based Reinforcement Learning of Grid Topology Controllers to
Prevent Thermal Cascading [0.19116784879310028]
本稿では,電力系統演算子のドメイン知識を強化学習フレームワークに統合する方法について述べる。
環境を改良することにより、報酬チューニングを伴うカリキュラムベースのアプローチをトレーニング手順に組み込む。
複数のシナリオに対する並列トレーニングアプローチは、エージェントをいくつかのシナリオに偏りなくし、グリッド操作の自然変動に対して堅牢にするために使用される。
論文 参考訳(メタデータ) (2021-12-18T20:32:05Z) - Semantic-Aware Collaborative Deep Reinforcement Learning Over Wireless
Cellular Networks [82.02891936174221]
複数のエージェントが無線ネットワーク上で協調できるコラボレーティブディープ強化学習(CDRL)アルゴリズムは有望なアプローチである。
本稿では,リソース制約のある無線セルネットワーク上で,意味的にリンクされたDRLタスクを持つ未学習エージェントのグループを効率的に協調させる,新しい意味認識型CDRL手法を提案する。
論文 参考訳(メタデータ) (2021-11-23T18:24:47Z) - Adaptive Stochastic ADMM for Decentralized Reinforcement Learning in
Edge Industrial IoT [106.83952081124195]
強化学習 (Reinforcement Learning, RL) は, 意思決定および最適制御プロセスのための有望な解法として広く研究されている。
本稿では,Adaptive ADMM (asI-ADMM)アルゴリズムを提案する。
実験の結果,提案アルゴリズムは通信コストやスケーラビリティの観点から技術状況よりも優れており,複雑なIoT環境に適応できることがわかった。
論文 参考訳(メタデータ) (2021-06-30T16:49:07Z) - A Heuristically Assisted Deep Reinforcement Learning Approach for
Network Slice Placement [0.7885276250519428]
本稿では,Deep Reinforcement Learning(DRL)に基づくハイブリッド配置ソリューションと,Power of Two Choices原則に基づく専用最適化を提案する。
提案したHuristically-Assisted DRL (HA-DRL) は,他の最先端手法と比較して学習プロセスの高速化と資源利用の促進を可能にする。
論文 参考訳(メタデータ) (2021-05-14T10:04:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。