論文の概要: Lyapunov-Regularized Reinforcement Learning for Power System Transient
Stability
- arxiv url: http://arxiv.org/abs/2103.03869v1
- Date: Fri, 5 Mar 2021 18:55:26 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-09 07:59:17.934847
- Title: Lyapunov-Regularized Reinforcement Learning for Power System Transient
Stability
- Title(参考訳): Lyapunov-Regularized Reinforcement Learning for Power System Transient Stability
- Authors: Wenqi Cui, Baosen Zhang
- Abstract要約: 本稿では、損失ネットワークにおける過渡安定性のための最適周波数制御のためのLyapunov正規化RLアプローチを提案する。
ケーススタディでは、リアプノフ正則化の導入により、コントローラの安定化と損失の低減が可能になる。
- 参考スコア(独自算出の注目度): 5.634825161148484
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Transient stability of power systems is becoming increasingly important
because of the growing integration of renewable resources. These resources lead
to a reduction in mechanical inertia but also provide increased flexibility in
frequency responses. Namely, their power electronic interfaces can implement
almost arbitrary control laws. To design these controllers, reinforcement
learning (RL) has emerged as a powerful method in searching for optimal
non-linear control policy parameterized by neural networks.
A key challenge is to enforce that a learned controller must be stabilizing.
This paper proposes a Lyapunov regularized RL approach for optimal frequency
control for transient stability in lossy networks. Because the lack of an
analytical Lyapunov function, we learn a Lyapunov function parameterized by a
neural network. The losses are specially designed with respect to the physical
power system. The learned neural Lyapunov function is then utilized as a
regularization to train the neural network controller by penalizing actions
that violate the Lyapunov conditions. Case study shows that introducing the
Lyapunov regularization enables the controller to be stabilizing and achieve
smaller losses.
- Abstract(参考訳): 再生可能資源の統合が進み、電力システムの過渡的安定性がますます重要になっている。
これらの資源は機械的慣性の減少につながるが、周波数応答の柔軟性も増す。
すなわち、パワー電子インタフェースは、ほぼ任意の制御法則を実装できる。
これらのコントローラを設計するために、ニューラルネットワークによってパラメータ化される最適非線形制御ポリシーを探すための強力な方法として強化学習(RL)が登場した。
重要な課題は、学習したコントローラが安定化しなければならないことを強制することです。
本稿では、損失ネットワークにおける過渡安定性のための最適周波数制御のためのLyapunov正規化RLアプローチを提案する。
解析的Lyapunov関数が欠如しているため、ニューラルネットワークによってパラメータ化されたLyapunov関数を学習する。
損失は物理的な電力システムに関して特に設計されています。
学習されたニューラルネットワークLyapunov関数は、Lyapunov条件に違反する行動を罰することによって、ニューラルネットワークコントローラを訓練するために正規化として利用される。
ケーススタディでは、リアプノフ正則化の導入により、コントローラの安定化と損失の低減が可能になる。
関連論文リスト
- Formally Verified Physics-Informed Neural Control Lyapunov Functions [4.2162963332651575]
制御リャプノフ関数は非線形系の安定化コントローラの設計と解析において中心的なツールである。
本稿では,ニューラルネットワーク制御Lyapunov関数の物理インフォームド学習と形式検証について検討する。
論文 参考訳(メタデータ) (2024-09-30T17:27:56Z) - Lyapunov-stable Neural Control for State and Output Feedback: A Novel Formulation [67.63756749551924]
学習ベースのニューラルネットワーク(NN)制御ポリシは、ロボット工学と制御の幅広いタスクにおいて、印象的な経験的パフォーマンスを示している。
非線形力学系を持つNNコントローラのトラクション領域(ROA)に対するリアプノフ安定性の保証は困難である。
我々は、高速な経験的ファルシフィケーションと戦略的正則化を用いて、Lyapunov証明書とともにNNコントローラを学習するための新しいフレームワークを実証する。
論文 参考訳(メタデータ) (2024-04-11T17:49:15Z) - Improving the Performance of Robust Control through Event-Triggered
Learning [74.57758188038375]
LQR問題における不確実性に直面していつ学習するかを決定するイベントトリガー学習アルゴリズムを提案する。
本研究では,ロバストな制御器ベースライン上での性能向上を数値例で示す。
論文 参考訳(メタデータ) (2022-07-28T17:36:37Z) - The least-control principle for learning at equilibrium [65.2998274413952]
我々は、平衡反復ニューラルネットワーク、深層平衡モデル、メタラーニングを学ぶための新しい原理を提案する。
私たちの結果は、脳がどのように学習するかを明らかにし、幅広い機械学習問題にアプローチする新しい方法を提供します。
論文 参考訳(メタデータ) (2022-07-04T11:27:08Z) - Neural Lyapunov Control of Unknown Nonlinear Systems with Stability
Guarantees [4.786698731084036]
本稿では,未知の非線形システムをニューラルネットワークで安定化させ,ニューラルリアプノフ関数を学習するための学習フレームワークを提案する。
未知の非線形システムに対する閉ループ安定性の観点から,提案手法の理論的保証を提供する。
論文 参考訳(メタデータ) (2022-06-04T05:57:31Z) - Adversarially Regularized Policy Learning Guided by Trajectory
Optimization [31.122262331980153]
本稿では,スムーズな制御ポリシーを学習するために,trajeCtory optimizAtion (VERONICA) でガイドされた適応正規化 pOlicy learNIng を提案する。
提案手法は,ニューラルポリシー学習のサンプル効率を向上し,各種障害に対するポリシーの堅牢性を高める。
論文 参考訳(メタデータ) (2021-09-16T00:02:11Z) - Regularizing Action Policies for Smooth Control with Reinforcement
Learning [47.312768123967025]
Conditioning for Action Policy Smoothness(CAPS)は、アクションポリシーの効果的な直感的な正規化である。
capsは、ニューラルネットワークコントローラの学習状態-動作マッピングの滑らかさを一貫して改善する。
実システムでテストしたところ、クアドロタードローンのコントローラーの滑らかさが改善され、消費電力は80%近く削減された。
論文 参考訳(メタデータ) (2020-12-11T21:35:24Z) - Enforcing robust control guarantees within neural network policies [76.00287474159973]
本稿では、ニューラルネットワークによってパラメータ化され、ロバスト制御と同じ証明可能なロバスト性基準を適用した、一般的な非線形制御ポリシークラスを提案する。
提案手法は,複数の領域において有効であり,既存のロバスト制御法よりも平均ケース性能が向上し,(非ロバスト)深部RL法よりも最悪のケース安定性が向上した。
論文 参考訳(メタデータ) (2020-11-16T17:14:59Z) - Improve Generalization and Robustness of Neural Networks via Weight
Scale Shifting Invariant Regularizations [52.493315075385325]
重み劣化を含む正則化器の族は、均質な活性化関数を持つネットワークに対する本質的な重みのノルムをペナルティ化するのに有効でないことを示す。
そこで我々は,ニューラルネットワークの本質的な規範を効果的に制約する改良型正規化器を提案する。
論文 参考訳(メタデータ) (2020-08-07T02:55:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。