論文の概要: Neural Lyapunov Differentiable Predictive Control
- arxiv url: http://arxiv.org/abs/2205.10728v1
- Date: Sun, 22 May 2022 03:52:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-24 20:16:17.481712
- Title: Neural Lyapunov Differentiable Predictive Control
- Title(参考訳): 神経リプノフ微分予測制御
- Authors: Sayak Mukherjee, J\'an Drgo\v{n}a, Aaron Tuor, Mahantesh Halappanavar,
Draguna Vrabie
- Abstract要約: 本稿では、確率的リアプノフに基づく安定性保証を備えた微分可能なプログラミングフレームワークを用いた学習に基づく予測制御手法を提案する。
この手法は、安定な力学で状態空間の領域を認証するリアプノフ関数を共同で学習する。
- 参考スコア(独自算出の注目度): 2.042924346801313
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a learning-based predictive control methodology using the
differentiable programming framework with probabilistic Lyapunov-based
stability guarantees. The neural Lyapunov differentiable predictive control
(NLDPC) learns the policy by constructing a computational graph encompassing
the system dynamics, state and input constraints, and the necessary Lyapunov
certification constraints, and thereafter using the automatic differentiation
to update the neural policy parameters. In conjunction, our approach jointly
learns a Lyapunov function that certifies the regions of state-space with
stable dynamics. We also provide a sampling-based statistical guarantee for the
training of NLDPC from the distribution of initial conditions. Our offline
training approach provides a computationally efficient and scalable alternative
to classical explicit model predictive control solutions. We substantiate the
advantages of the proposed approach with simulations to stabilize the double
integrator model and on an example of controlling an aircraft model.
- Abstract(参考訳): 本稿では,確率的lyapunovに基づく安定性保証を備えた微分可能プログラミングフレームワークを用いて,学習に基づく予測制御手法を提案する。
ニューラルリアプノフ微分可能予測制御(NLDPC)は、システムダイナミクス、状態および入力制約、必要なリアプノフ認証制約を含む計算グラフを構築し、その後、自動微分を使用して神経ポリシーパラメータを更新することによってポリシーを学習する。
ともなって、我々のアプローチは、状態空間の領域を安定なダイナミクスで証明するリアプノフ関数を共同で学習する。
また,初期条件の分布からNLDPCをトレーニングするためのサンプリングに基づく統計的保証も提供する。
当社のオフライントレーニングアプローチは,従来の明示的モデル予測制御ソリューションに代わる,計算効率とスケーラブルな選択肢を提供します。
二重積分器モデルの安定化と航空機モデル制御の例を用いて,提案手法の利点をシミュレーションにより検証する。
関連論文リスト
- Lyapunov-stable Neural Control for State and Output Feedback: A Novel Formulation [67.63756749551924]
学習ベースのニューラルネットワーク(NN)制御ポリシは、ロボット工学と制御の幅広いタスクにおいて、印象的な経験的パフォーマンスを示している。
非線形力学系を持つNNコントローラのトラクション領域(ROA)に対するリアプノフ安定性の保証は困難である。
我々は、高速な経験的ファルシフィケーションと戦略的正則化を用いて、Lyapunov証明書とともにNNコントローラを学習するための新しいフレームワークを実証する。
論文 参考訳(メタデータ) (2024-04-11T17:49:15Z) - Lyapunov Density Models: Constraining Distribution Shift in
Learning-Based Control [64.61499213110334]
我々はエージェントを訓練された状態や行動に制約するメカニズムを模索する。
制御理論において、リャプノフ安定性と制御不変集合は、コントローラについて保証することを可能にする。
密度モデルによって トレーニングデータの分布を推定できます
論文 参考訳(メタデータ) (2022-06-21T16:49:09Z) - Learning Stochastic Parametric Differentiable Predictive Control
Policies [2.042924346801313]
本稿では、ニューラルネットワークポリシーの教師なし学習のための、パラメトリック微分可能予測制御(SP-DPC)と呼ばれるスケーラブルな代替手法を提案する。
SP-DPCはパラメトリック制約最適制御問題に対する決定論的近似として定式化される。
閉ループ制約と確率満足度に関するSP-DPC法を用いて学習したポリシーに関する理論的確率的保証を提供する。
論文 参考訳(メタデータ) (2022-03-02T22:46:32Z) - Probabilistic robust linear quadratic regulators with Gaussian processes [73.0364959221845]
ガウス過程(GP)のような確率モデルは、制御設計に続く使用のためのデータから未知の動的システムを学ぶための強力なツールです。
本稿では、確率的安定性マージンに関して堅牢なコントローラを生成する線形化GPダイナミクスのための新しいコントローラ合成について述べる。
論文 参考訳(メタデータ) (2021-05-17T08:36:18Z) - Gaussian Process-based Min-norm Stabilizing Controller for
Control-Affine Systems with Uncertain Input Effects and Dynamics [90.81186513537777]
本稿では,この問題の制御・アフィン特性を捉えた新しい化合物カーネルを提案する。
この結果の最適化問題は凸であることを示し、ガウス過程に基づく制御リャプノフ関数第二次コーンプログラム(GP-CLF-SOCP)と呼ぶ。
論文 参考訳(メタデータ) (2020-11-14T01:27:32Z) - Control as Hybrid Inference [62.997667081978825]
本稿では、反復推論と償却推論のバランスを自然に仲介するCHIの実装について述べる。
連続的な制御ベンチマークでアルゴリズムのスケーラビリティを検証し、強力なモデルフリーおよびモデルベースラインを上回る性能を示す。
論文 参考訳(メタデータ) (2020-07-11T19:44:09Z) - Learning Constrained Adaptive Differentiable Predictive Control Policies
With Guarantees [1.1086440815804224]
本稿では,線形システムに対する制約付きニューラルコントロールポリシーの学習方法として,微分可能予測制御(DPC)を提案する。
我々は,モデル予測制御(MPC)損失関数の逆伝搬と,微分可能な閉ループ系力学モデルによるペナルティの制約により,直接的な政策勾配を求めるために,自動微分を用いる。
論文 参考訳(メタデータ) (2020-04-23T14:24:44Z) - Reinforcement Learning for Safety-Critical Control under Model
Uncertainty, using Control Lyapunov Functions and Control Barrier Functions [96.63967125746747]
強化学習フレームワークは、CBFおよびCLF制約に存在するモデル不確実性を学ぶ。
RL-CBF-CLF-QPは、安全制約におけるモデル不確実性の問題に対処する。
論文 参考訳(メタデータ) (2020-04-16T10:51:33Z) - Neural Lyapunov Model Predictive Control: Learning Safe Global
Controllers from Sub-optimal Examples [4.777323087050061]
多くの実世界の産業アプリケーションでは、例えば人間の操作者による実行など、既存の制御戦略を持つことが典型的である。
この研究の目的は、安全と安定性を維持する新しいコントローラを学習することで、この未知の、安全だが、最適でないポリシーを改善することである。
提案アルゴリズムは、端末コストを学習し、安定性基準に従ってMPCパラメータを更新する。
論文 参考訳(メタデータ) (2020-02-21T16:57:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。