論文の概要: Lyapunov-Regularized Reinforcement Learning for Power System Transient
Stability
- arxiv url: http://arxiv.org/abs/2103.03869v1
- Date: Fri, 5 Mar 2021 18:55:26 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-09 07:59:17.934847
- Title: Lyapunov-Regularized Reinforcement Learning for Power System Transient
Stability
- Title(参考訳): Lyapunov-Regularized Reinforcement Learning for Power System Transient Stability
- Authors: Wenqi Cui, Baosen Zhang
- Abstract要約: 本稿では、損失ネットワークにおける過渡安定性のための最適周波数制御のためのLyapunov正規化RLアプローチを提案する。
ケーススタディでは、リアプノフ正則化の導入により、コントローラの安定化と損失の低減が可能になる。
- 参考スコア(独自算出の注目度): 5.634825161148484
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Transient stability of power systems is becoming increasingly important
because of the growing integration of renewable resources. These resources lead
to a reduction in mechanical inertia but also provide increased flexibility in
frequency responses. Namely, their power electronic interfaces can implement
almost arbitrary control laws. To design these controllers, reinforcement
learning (RL) has emerged as a powerful method in searching for optimal
non-linear control policy parameterized by neural networks.
A key challenge is to enforce that a learned controller must be stabilizing.
This paper proposes a Lyapunov regularized RL approach for optimal frequency
control for transient stability in lossy networks. Because the lack of an
analytical Lyapunov function, we learn a Lyapunov function parameterized by a
neural network. The losses are specially designed with respect to the physical
power system. The learned neural Lyapunov function is then utilized as a
regularization to train the neural network controller by penalizing actions
that violate the Lyapunov conditions. Case study shows that introducing the
Lyapunov regularization enables the controller to be stabilizing and achieve
smaller losses.
- Abstract(参考訳): 再生可能資源の統合が進み、電力システムの過渡的安定性がますます重要になっている。
これらの資源は機械的慣性の減少につながるが、周波数応答の柔軟性も増す。
すなわち、パワー電子インタフェースは、ほぼ任意の制御法則を実装できる。
これらのコントローラを設計するために、ニューラルネットワークによってパラメータ化される最適非線形制御ポリシーを探すための強力な方法として強化学習(RL)が登場した。
重要な課題は、学習したコントローラが安定化しなければならないことを強制することです。
本稿では、損失ネットワークにおける過渡安定性のための最適周波数制御のためのLyapunov正規化RLアプローチを提案する。
解析的Lyapunov関数が欠如しているため、ニューラルネットワークによってパラメータ化されたLyapunov関数を学習する。
損失は物理的な電力システムに関して特に設計されています。
学習されたニューラルネットワークLyapunov関数は、Lyapunov条件に違反する行動を罰することによって、ニューラルネットワークコントローラを訓練するために正規化として利用される。
ケーススタディでは、リアプノフ正則化の導入により、コントローラの安定化と損失の低減が可能になる。
関連論文リスト
- Neural Lyapunov Control for Discrete-Time Systems [30.135651803114307]
一般的なアプローチは、リャプノフ関数と関連する制御ポリシーの組み合わせを計算することである。
ニューラルネットワークを用いてリアプノフ関数を表現するいくつかの手法が提案されている。
離散時間系におけるニューラルリアプノフ制御の学習のための最初のアプローチを提案する。
論文 参考訳(メタデータ) (2023-05-11T03:28:20Z) - Improving the Performance of Robust Control through Event-Triggered
Learning [74.57758188038375]
LQR問題における不確実性に直面していつ学習するかを決定するイベントトリガー学習アルゴリズムを提案する。
本研究では,ロバストな制御器ベースライン上での性能向上を数値例で示す。
論文 参考訳(メタデータ) (2022-07-28T17:36:37Z) - The least-control principle for learning at equilibrium [65.2998274413952]
我々は、平衡反復ニューラルネットワーク、深層平衡モデル、メタラーニングを学ぶための新しい原理を提案する。
私たちの結果は、脳がどのように学習するかを明らかにし、幅広い機械学習問題にアプローチする新しい方法を提供します。
論文 参考訳(メタデータ) (2022-07-04T11:27:08Z) - Neural Lyapunov Control of Unknown Nonlinear Systems with Stability
Guarantees [4.786698731084036]
本稿では,未知の非線形システムをニューラルネットワークで安定化させ,ニューラルリアプノフ関数を学習するための学習フレームワークを提案する。
未知の非線形システムに対する閉ループ安定性の観点から,提案手法の理論的保証を提供する。
論文 参考訳(メタデータ) (2022-06-04T05:57:31Z) - LyaNet: A Lyapunov Framework for Training Neural ODEs [59.73633363494646]
制御理論的リアプノフ条件を用いて常微分方程式を訓練する手法を提案する。
我々のアプローチはLyaNetと呼ばれ、推論ダイナミクスを正しい予測に迅速に収束させる新しいLyapunov損失定式化に基づいている。
論文 参考訳(メタデータ) (2022-02-05T10:13:14Z) - Adversarially Regularized Policy Learning Guided by Trajectory
Optimization [31.122262331980153]
本稿では,スムーズな制御ポリシーを学習するために,trajeCtory optimizAtion (VERONICA) でガイドされた適応正規化 pOlicy learNIng を提案する。
提案手法は,ニューラルポリシー学習のサンプル効率を向上し,各種障害に対するポリシーの堅牢性を高める。
論文 参考訳(メタデータ) (2021-09-16T00:02:11Z) - Recurrent Neural Network Controllers Synthesis with Stability Guarantees
for Partially Observed Systems [6.234005265019845]
本稿では、不確実な部分観測システムのための動的制御系として、リカレントニューラルネットワーク(RNN)の重要なクラスを考える。
本稿では、再パラメータ化空間における安定性条件を反復的に強制する計画的ポリシー勾配法を提案する。
数値実験により,本手法は,より少ないサンプルを用いて制御器の安定化を学習し,政策勾配よりも高い最終性能を達成することを示す。
論文 参考訳(メタデータ) (2021-09-08T18:21:56Z) - Regularizing Action Policies for Smooth Control with Reinforcement
Learning [47.312768123967025]
Conditioning for Action Policy Smoothness(CAPS)は、アクションポリシーの効果的な直感的な正規化である。
capsは、ニューラルネットワークコントローラの学習状態-動作マッピングの滑らかさを一貫して改善する。
実システムでテストしたところ、クアドロタードローンのコントローラーの滑らかさが改善され、消費電力は80%近く削減された。
論文 参考訳(メタデータ) (2020-12-11T21:35:24Z) - Enforcing robust control guarantees within neural network policies [76.00287474159973]
本稿では、ニューラルネットワークによってパラメータ化され、ロバスト制御と同じ証明可能なロバスト性基準を適用した、一般的な非線形制御ポリシークラスを提案する。
提案手法は,複数の領域において有効であり,既存のロバスト制御法よりも平均ケース性能が向上し,(非ロバスト)深部RL法よりも最悪のケース安定性が向上した。
論文 参考訳(メタデータ) (2020-11-16T17:14:59Z) - Improve Generalization and Robustness of Neural Networks via Weight
Scale Shifting Invariant Regularizations [52.493315075385325]
重み劣化を含む正則化器の族は、均質な活性化関数を持つネットワークに対する本質的な重みのノルムをペナルティ化するのに有効でないことを示す。
そこで我々は,ニューラルネットワークの本質的な規範を効果的に制約する改良型正規化器を提案する。
論文 参考訳(メタデータ) (2020-08-07T02:55:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。