論文の概要: Lyapunov Neural ODE State-Feedback Control Policies
- arxiv url: http://arxiv.org/abs/2409.00393v2
- Date: Mon, 17 Feb 2025 04:28:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-18 14:02:46.395491
- Title: Lyapunov Neural ODE State-Feedback Control Policies
- Title(参考訳): Lyapunov Neural ODE State-Feedback Control Policies
- Authors: Joshua Hang Sai Ip, Georgios Makrygiorgos, Ali Mesbah,
- Abstract要約: 本稿では,連続時間最適制御問題(OCP)に対するNODEアプローチを提案する。
アプローチは、Lyapunov-NODE Control (L-NODEC)と呼ばれ、新しいLyapunov損失の定式化を使用しており、これは、状態フィードバックのニューラルコントロールポリシーを学ぶために指数的安定化制御Lyapunov関数を含む。
L-NODECの性能はプラズマ医学における線量伝達問題を含む2つの問題で説明される。
- 参考スコア(独自算出の注目度): 6.165163123577486
- License:
- Abstract: Deep neural networks are increasingly used as an effective way to represent control policies in various learning-based control paradigms. For continuous-time optimal control problems (OCPs), which are central to many decision-making tasks, control policy learning can be cast as a neural ordinary differential equation (NODE) problem wherein state and control constraints are naturally accommodated. This paper presents a NODE approach to solving continuous-time OCPs for the case of stabilizing a known constrained nonlinear system around an equilibrium state. The approach, termed Lyapunov-NODE control (L-NODEC), uses a novel Lyapunov loss formulation that incorporates an exponentially-stabilizing control Lyapunov function to learn a state-feedback neural control policy. The proposed Lyapunov loss allows L-NODEC to guarantee exponential stability of the controlled system, as well as its adversarial robustness to perturbations to the initial state. The performance of L-NODEC is illustrated in two problems, including a dose delivery problem in plasma medicine, wherein L-NODEC effectively stabilizes the controlled system around the equilibrium state despite perturbations to the initial state and reduces the inference time necessary to reach equilibrium.
- Abstract(参考訳): 深層ニューラルネットワークは、さまざまな学習ベースの制御パラダイムにおける制御ポリシーを表現する効果的な方法として、ますます使われている。
多くの意思決定タスクの中心となる連続時間最適制御問題(OCP)に対して、制御ポリシ学習は、状態と制御制約が自然に許容されるニューラル常微分方程式(NODE)問題としてキャストすることができる。
本稿では、平衡状態の周囲で既知の拘束された非線形系を安定化する場合に、連続時間OCPを解くためのNODEアプローチを提案する。
アプローチは、Lyapunov-NODE Control (L-NODEC)と呼ばれ、新しいLyapunov損失の定式化を使用しており、これは、状態フィードバックのニューラルコントロールポリシーを学ぶために指数的安定化制御Lyapunov関数を含む。
提案されたリャプノフ損失により、L-NODECは制御系の指数的安定性を保証でき、初期状態への摂動に対する対角的堅牢性も保証できる。
L-NODECの性能は、プラズマ医学における線量伝達問題を含む2つの問題で説明され、L-NODECは初期状態への摂動にもかかわらず平衡状態の制御系を効果的に安定化させ、平衡に達するのに必要な推論時間を短縮する。
関連論文リスト
- Lyapunov-stable Neural Control for State and Output Feedback: A Novel Formulation [67.63756749551924]
学習ベースのニューラルネットワーク(NN)制御ポリシは、ロボット工学と制御の幅広いタスクにおいて、印象的な経験的パフォーマンスを示している。
非線形力学系を持つNNコントローラのトラクション領域(ROA)に対するリアプノフ安定性の保証は困難である。
我々は、高速な経験的ファルシフィケーションと戦略的正則化を用いて、Lyapunov証明書とともにNNコントローラを学習するための新しいフレームワークを実証する。
論文 参考訳(メタデータ) (2024-04-11T17:49:15Z) - A Neural RDE approach for continuous-time non-Markovian stochastic
control problems [4.155942878350882]
ニューラル粗微分方程式(ニューラルRDE)を用いた連続時間非マルコフ制御問題のための新しい枠組みを提案する。
非マルコビアン性は、システム係数の時間遅延効果や駆動ノイズによる制御問題に自然に現れる。
制御過程を状態過程によって駆動されるニューラルRDEの解としてモデル化することにより,制御状態のジョイントダイナミクスが制御不能で拡張されたニューラルRDEによって制御されていることを示す。
論文 参考訳(メタデータ) (2023-06-25T14:30:33Z) - Optimal control for state preparation in two-qubit open quantum systems
driven by coherent and incoherent controls via GRAPE approach [77.34726150561087]
我々は、コヒーレントかつ非コヒーレントな時間依存制御によって駆動される2つの量子ビットのモデルを考える。
系の力学はゴリーニ=コサコフスキー=スダルシャン=リンドブラッドのマスター方程式によって支配される。
最適化制御の下で, フォン・ノイマンエントロピー, 純度, および1ビット還元密度行列の進化について検討した。
論文 参考訳(メタデータ) (2022-11-04T15:20:18Z) - KCRL: Krasovskii-Constrained Reinforcement Learning with Guaranteed
Stability in Nonlinear Dynamical Systems [66.9461097311667]
形式的安定性を保証するモデルに基づく強化学習フレームワークを提案する。
提案手法は,特徴表現を用いて信頼区間までシステムダイナミクスを学習する。
我々は、KCRLが、基礎となる未知のシステムとの有限数の相互作用において安定化ポリシーを学ぶことが保証されていることを示す。
論文 参考訳(メタデータ) (2022-06-03T17:27:04Z) - Reliably-stabilizing piecewise-affine neural network controllers [5.203329540700177]
モデル予測制御(MPC)ポリシーのニューラルネットワーク(NN)近似に影響を与える一般的な問題は、NNベースのコントローラの動作の下でクローズドループシステムの安定性を評価するための分析ツールがないことである。
本稿では、そのような制御器の性能を定量化したり、与えられたMPCスキームの望ましい特性を保持する最小の複雑性NNを設計するための一般的な手順を提案する。
論文 参考訳(メタデータ) (2021-11-13T20:01:43Z) - A Theoretical Overview of Neural Contraction Metrics for Learning-based
Control with Guaranteed Stability [7.963506386866862]
本稿では,最適縮尺と対応する微分リャプノフ関数のニューラルネットワークモデルを提案する。
そのイノベーションは、学習ベースの制御フレームワークに対して、正式な堅牢性を保証することである。
論文 参考訳(メタデータ) (2021-10-02T00:28:49Z) - Stable Online Control of Linear Time-Varying Systems [49.41696101740271]
COCO-LQは、大規模なLTVシステムの入出力安定性を保証する効率的なオンライン制御アルゴリズムである。
COCO-LQの性能を実証実験とパワーシステム周波数制御の両例で実証した。
論文 参考訳(メタデータ) (2021-04-29T06:18:49Z) - Implicit energy regularization of neural ordinary-differential-equation
control [3.5880535198436156]
暗黙的なエネルギー正規化を伴う汎用型ニューラル常微分方程式制御(NODEC)フレームワークを提案する。
nodecは動的システムを、予め定義された時間内に、望ましいターゲット状態に向けて制御できることを実証する。
論文 参考訳(メタデータ) (2021-03-11T08:28:15Z) - Lyapunov-Regularized Reinforcement Learning for Power System Transient
Stability [5.634825161148484]
本稿では、損失ネットワークにおける過渡安定性のための最適周波数制御のためのLyapunov正規化RLアプローチを提案する。
ケーススタディでは、リアプノフ正則化の導入により、コントローラの安定化と損失の低減が可能になる。
論文 参考訳(メタデータ) (2021-03-05T18:55:26Z) - Gaussian Process-based Min-norm Stabilizing Controller for
Control-Affine Systems with Uncertain Input Effects and Dynamics [90.81186513537777]
本稿では,この問題の制御・アフィン特性を捉えた新しい化合物カーネルを提案する。
この結果の最適化問題は凸であることを示し、ガウス過程に基づく制御リャプノフ関数第二次コーンプログラム(GP-CLF-SOCP)と呼ぶ。
論文 参考訳(メタデータ) (2020-11-14T01:27:32Z) - Adaptive Control and Regret Minimization in Linear Quadratic Gaussian
(LQG) Setting [91.43582419264763]
我々は不確実性に直面した楽観主義の原理に基づく新しい強化学習アルゴリズムLqgOptを提案する。
LqgOptはシステムのダイナミクスを効率的に探索し、モデルのパラメータを信頼区間まで推定し、最も楽観的なモデルのコントローラをデプロイする。
論文 参考訳(メタデータ) (2020-03-12T19:56:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。