論文の概要: Stabilizing Dynamical Systems via Policy Gradient Methods
- arxiv url: http://arxiv.org/abs/2110.06418v1
- Date: Wed, 13 Oct 2021 00:58:57 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-15 03:20:07.835671
- Title: Stabilizing Dynamical Systems via Policy Gradient Methods
- Title(参考訳): 政策勾配法による動的システムの安定化
- Authors: Juan C. Perdomo and Jack Umenberger and Max Simchowitz
- Abstract要約: 完全に観察された力学系を安定化するためのモデルフリーなアルゴリズムを提案する。
本研究では,線形システムの安定化制御を効率よく行うことを証明する。
我々は,共通制御ベンチマークにおけるアプローチの有効性を実証的に評価した。
- 参考スコア(独自算出の注目度): 32.88312419270879
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Stabilizing an unknown control system is one of the most fundamental problems
in control systems engineering. In this paper, we provide a simple, model-free
algorithm for stabilizing fully observed dynamical systems. While model-free
methods have become increasingly popular in practice due to their simplicity
and flexibility, stabilization via direct policy search has received
surprisingly little attention. Our algorithm proceeds by solving a series of
discounted LQR problems, where the discount factor is gradually increased. We
prove that this method efficiently recovers a stabilizing controller for linear
systems, and for smooth, nonlinear systems within a neighborhood of their
equilibria. Our approach overcomes a significant limitation of prior work,
namely the need for a pre-given stabilizing control policy. We empirically
evaluate the effectiveness of our approach on common control benchmarks.
- Abstract(参考訳): 未知の制御システムの安定化は、制御システム工学における最も基本的な問題の1つである。
本稿では,完全に観測された力学系を安定化するシンプルなモデルフリーアルゴリズムを提案する。
モデルフリーな手法は、その単純さと柔軟性から実際に人気が高まっているが、直接ポリシー検索による安定化は驚くほど注目されていない。
我々のアルゴリズムは、割引係数が徐々に増大する一連の割引LQR問題を解くことによって進行する。
本手法は,線形系の安定化制御器と,その平衡近傍の滑らかな非線形系を効率的に回収できることを実証する。
当社のアプローチでは,事前作業の大幅な制限,すなわち,事前の安定化管理ポリシの必要性を克服しています。
我々は,共通制御ベンチマークにおけるアプローチの有効性を実証的に評価した。
関連論文リスト
- Learning to Boost the Performance of Stable Nonlinear Systems [0.0]
クローズドループ安定性保証による性能ブースティング問題に対処する。
本手法は,安定な非線形システムのための性能ブースティング制御器のニューラルネットワーククラスを任意に学習することを可能にする。
論文 参考訳(メタデータ) (2024-05-01T21:11:29Z) - Synthesizing Stable Reduced-Order Visuomotor Policies for Nonlinear
Systems via Sums-of-Squares Optimization [28.627377507894003]
本稿では,非線形システムの制御観測のためのノイズフィードバック,低次出力-制御-パーセプションポリシを提案する。
画像からのこれらのシステムが確実に安定できない場合、我々のアプローチは安定性の保証を提供する。
論文 参考訳(メタデータ) (2023-04-24T19:34:09Z) - KCRL: Krasovskii-Constrained Reinforcement Learning with Guaranteed
Stability in Nonlinear Dynamical Systems [66.9461097311667]
形式的安定性を保証するモデルに基づく強化学習フレームワークを提案する。
提案手法は,特徴表現を用いて信頼区間までシステムダイナミクスを学習する。
我々は、KCRLが、基礎となる未知のシステムとの有限数の相互作用において安定化ポリシーを学ぶことが保証されていることを示す。
論文 参考訳(メタデータ) (2022-06-03T17:27:04Z) - Imitation Learning of Stabilizing Policies for Nonlinear Systems [1.52292571922932]
線形システムやコントローラ向けに開発された手法は,平方の和を用いて容易にコントローラに拡張できることが示されている。
予測勾配降下法とアルゴリズムの交互方向法を, 安定化模倣学習問題に対して提案する。
論文 参考訳(メタデータ) (2021-09-22T17:27:19Z) - Stable Online Control of Linear Time-Varying Systems [49.41696101740271]
COCO-LQは、大規模なLTVシステムの入出力安定性を保証する効率的なオンライン制御アルゴリズムである。
COCO-LQの性能を実証実験とパワーシステム周波数制御の両例で実証した。
論文 参考訳(メタデータ) (2021-04-29T06:18:49Z) - Enforcing robust control guarantees within neural network policies [76.00287474159973]
本稿では、ニューラルネットワークによってパラメータ化され、ロバスト制御と同じ証明可能なロバスト性基準を適用した、一般的な非線形制御ポリシークラスを提案する。
提案手法は,複数の領域において有効であり,既存のロバスト制御法よりも平均ケース性能が向上し,(非ロバスト)深部RL法よりも最悪のケース安定性が向上した。
論文 参考訳(メタデータ) (2020-11-16T17:14:59Z) - Robust Model-Free Learning and Control without Prior Knowledge [1.14219428942199]
本稿では,未知の離散時間線形系を頑健に学習し,安定化するモデルフリー制御アルゴリズムを提案する。
コントローラはシステムダイナミクス、障害、ノイズに関する事前の知識を必要としない。
一般化と簡易性にもかかわらず、制御器はクローズドループ性能がよいことを示すシミュレーション結果で結論を下す。
論文 参考訳(メタデータ) (2020-10-01T05:43:33Z) - Reinforcement Learning with Fast Stabilization in Linear Dynamical
Systems [91.43582419264763]
未知の安定化線形力学系におけるモデルベース強化学習(RL)について検討する。
本研究では,環境を効果的に探索することで,基盤システムの高速安定化を証明できるアルゴリズムを提案する。
提案アルゴリズムはエージェント環境相互作用の時間ステップで$tildemathcalO(sqrtT)$ regretを達成した。
論文 参考訳(メタデータ) (2020-07-23T23:06:40Z) - Learning Stabilizing Controllers for Unstable Linear Quadratic
Regulators from a Single Trajectory [85.29718245299341]
線形2次制御器(LQR)としても知られる2次コストモデルの下で線形制御器を研究する。
楕円形不確実性集合内の全ての系を安定化させる制御器を構成する2つの異なる半定値プログラム(SDP)を提案する。
高い確率で安定化コントローラを迅速に識別できる効率的なデータ依存アルゴリズムであるtextsceXplorationを提案する。
論文 参考訳(メタデータ) (2020-06-19T08:58:57Z) - Adaptive Control and Regret Minimization in Linear Quadratic Gaussian
(LQG) Setting [91.43582419264763]
我々は不確実性に直面した楽観主義の原理に基づく新しい強化学習アルゴリズムLqgOptを提案する。
LqgOptはシステムのダイナミクスを効率的に探索し、モデルのパラメータを信頼区間まで推定し、最も楽観的なモデルのコントローラをデプロイする。
論文 参考訳(メタデータ) (2020-03-12T19:56:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。