論文の概要: Lyapunov Neural ODE Feedback Control Policies
- arxiv url: http://arxiv.org/abs/2409.00393v1
- Date: Sat, 31 Aug 2024 08:59:18 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-06 15:08:42.468935
- Title: Lyapunov Neural ODE Feedback Control Policies
- Title(参考訳): リアプノフ神経回路のフィードバック制御
- Authors: Joshua Hang Sai Ip, Georgios Makrygiorgos, Ali Mesbah,
- Abstract要約: 本稿では,Lyapunov-NODE制御(L-NODEC)による連続時間最適制御問題の解法を提案する。
我々は,L-NODECが制御システムの指数的安定性を保証するとともに,不確実な初期条件に対する対角的ロバスト性を保証することを確立する。
- 参考スコア(独自算出の注目度): 6.165163123577486
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep neural networks are increasingly used as an effective way to represent control policies in a wide-range of learning-based control methods. For continuous-time optimal control problems (OCPs), which are central to many decision-making tasks, control policy learning can be cast as a neural ordinary differential equation (NODE) problem wherein state and control constraints are naturally accommodated. This paper presents a Lyapunov-NODE control (L-NODEC) approach to solving continuous-time OCPs for the case of stabilizing a known constrained nonlinear system around a terminal equilibrium point. We propose a Lyapunov loss formulation that incorporates a control-theoretic Lyapunov condition into the problem of learning a state-feedback neural control policy. We establish that L-NODEC ensures exponential stability of the controlled system, as well as its adversarial robustness to uncertain initial conditions. The performance of L-NODEC is illustrated on a benchmark double integrator problem and for optimal control of thermal dose delivery using a cold atmospheric plasma biomedical system. L-NODEC can substantially reduce the inference time necessary to reach the equilibrium state.
- Abstract(参考訳): ディープニューラルネットワークは、幅広い学習ベースの制御方法において、制御ポリシーを表現する効果的な方法として、ますます使われている。
多くの意思決定タスクの中心となる連続時間最適制御問題(OCP)に対して、制御ポリシ学習は、状態と制御制約が自然に許容されるニューラル常微分方程式(NODE)問題としてキャストすることができる。
本稿では,Lyapunov-NODE制御(L-NODEC)による連続時間OCPの解法を提案する。
制御理論的なリアプノフ条件を状態フィードバック型ニューラルコントロールポリシの学習問題に組み込んだリアプノフ損失定式化を提案する。
我々は,L-NODECが制御システムの指数的安定性を保証するとともに,不確実な初期条件に対する対角的ロバスト性を保証することを確立する。
L-NODECの性能は、ベンチマークダブルインテグレータ問題と、冷熱プラズマバイオメディカルシステムを用いた熱線量供給の最適制御に用いている。
L-NODECは平衡状態に達するのに必要な推論時間を著しく短縮することができる。
関連論文リスト
- Lyapunov-stable Neural Control for State and Output Feedback: A Novel Formulation [67.63756749551924]
学習ベースのニューラルネットワーク(NN)制御ポリシは、ロボット工学と制御の幅広いタスクにおいて、印象的な経験的パフォーマンスを示している。
非線形力学系を持つNNコントローラのトラクション領域(ROA)に対するリアプノフ安定性の保証は困難である。
我々は、高速な経験的ファルシフィケーションと戦略的正則化を用いて、Lyapunov証明書とともにNNコントローラを学習するための新しいフレームワークを実証する。
論文 参考訳(メタデータ) (2024-04-11T17:49:15Z) - Safe Neural Control for Non-Affine Control Systems with Differentiable
Control Barrier Functions [58.19198103790931]
本稿では,非アフィン制御系における安全クリティカル制御の問題に対処する。
制御バリア関数(CBF)を用いて,状態制約と制御制約の2次コストの最適化を2次プログラムのシーケンス(QP)にサブ最適化できることが示されている。
我々は,高次CBFをニューラル常微分方程式に基づく学習モデルに差分CBFとして組み込んで,非アフィン制御系の安全性を保証する。
論文 参考訳(メタデータ) (2023-09-06T05:35:48Z) - A Neural RDE approach for continuous-time non-Markovian stochastic
control problems [4.155942878350882]
ニューラル粗微分方程式(ニューラルRDE)を用いた連続時間非マルコフ制御問題のための新しい枠組みを提案する。
非マルコビアン性は、システム係数の時間遅延効果や駆動ノイズによる制御問題に自然に現れる。
制御過程を状態過程によって駆動されるニューラルRDEの解としてモデル化することにより,制御状態のジョイントダイナミクスが制御不能で拡張されたニューラルRDEによって制御されていることを示す。
論文 参考訳(メタデータ) (2023-06-25T14:30:33Z) - Reliably-stabilizing piecewise-affine neural network controllers [5.203329540700177]
モデル予測制御(MPC)ポリシーのニューラルネットワーク(NN)近似に影響を与える一般的な問題は、NNベースのコントローラの動作の下でクローズドループシステムの安定性を評価するための分析ツールがないことである。
本稿では、そのような制御器の性能を定量化したり、与えられたMPCスキームの望ましい特性を保持する最小の複雑性NNを設計するための一般的な手順を提案する。
論文 参考訳(メタデータ) (2021-11-13T20:01:43Z) - A Theoretical Overview of Neural Contraction Metrics for Learning-based
Control with Guaranteed Stability [7.963506386866862]
本稿では,最適縮尺と対応する微分リャプノフ関数のニューラルネットワークモデルを提案する。
そのイノベーションは、学習ベースの制御フレームワークに対して、正式な堅牢性を保証することである。
論文 参考訳(メタデータ) (2021-10-02T00:28:49Z) - Stable Online Control of Linear Time-Varying Systems [49.41696101740271]
COCO-LQは、大規模なLTVシステムの入出力安定性を保証する効率的なオンライン制御アルゴリズムである。
COCO-LQの性能を実証実験とパワーシステム周波数制御の両例で実証した。
論文 参考訳(メタデータ) (2021-04-29T06:18:49Z) - Implicit energy regularization of neural ordinary-differential-equation
control [3.5880535198436156]
暗黙的なエネルギー正規化を伴う汎用型ニューラル常微分方程式制御(NODEC)フレームワークを提案する。
nodecは動的システムを、予め定義された時間内に、望ましいターゲット状態に向けて制御できることを実証する。
論文 参考訳(メタデータ) (2021-03-11T08:28:15Z) - Gaussian Process-based Min-norm Stabilizing Controller for
Control-Affine Systems with Uncertain Input Effects and Dynamics [90.81186513537777]
本稿では,この問題の制御・アフィン特性を捉えた新しい化合物カーネルを提案する。
この結果の最適化問題は凸であることを示し、ガウス過程に基づく制御リャプノフ関数第二次コーンプログラム(GP-CLF-SOCP)と呼ぶ。
論文 参考訳(メタデータ) (2020-11-14T01:27:32Z) - Chance-Constrained Control with Lexicographic Deep Reinforcement
Learning [77.34726150561087]
本稿では,レキシックなDeep Reinforcement Learning(DeepRL)に基づく確率制約マルコフ決定プロセスを提案する。
有名なDeepRLアルゴリズムDQNの辞書版も提案され、シミュレーションによって検証されている。
論文 参考訳(メタデータ) (2020-10-19T13:09:14Z) - Data-Driven Robust Control Using Reinforcement Learning [0.0]
本稿では,部分未知の力学系を制御するために強化学習を用いた頑健な制御設計法を提案する。
データから学習することで、クローズドループシステムの安定性を保証するアクションが提案される。
1型糖尿病患者に対する血糖モデルを用いたシミュレーションにより, コントロールが評価された。
論文 参考訳(メタデータ) (2020-04-16T14:57:15Z) - Adaptive Control and Regret Minimization in Linear Quadratic Gaussian
(LQG) Setting [91.43582419264763]
我々は不確実性に直面した楽観主義の原理に基づく新しい強化学習アルゴリズムLqgOptを提案する。
LqgOptはシステムのダイナミクスを効率的に探索し、モデルのパラメータを信頼区間まで推定し、最も楽観的なモデルのコントローラをデプロイする。
論文 参考訳(メタデータ) (2020-03-12T19:56:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。