論文の概要: Pointwise Feasibility of Gaussian Process-based Safety-Critical Control
under Model Uncertainty
- arxiv url: http://arxiv.org/abs/2106.07108v1
- Date: Sun, 13 Jun 2021 23:08:49 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-15 15:30:34.753049
- Title: Pointwise Feasibility of Gaussian Process-based Safety-Critical Control
under Model Uncertainty
- Title(参考訳): モデル不確実性下におけるガウスプロセスに基づく安全臨界制御のポイントワイズ実現可能性
- Authors: Fernando Casta\~neda, Jason J. Choi, Bike Zhang, Claire J. Tomlin,
Koushil Sreenath
- Abstract要約: 制御バリア関数(CBF)と制御リアプノフ関数(CLF)は、制御システムの安全性と安定性をそれぞれ強化するための一般的なツールである。
本稿では, CBF と CLF を用いた安全クリティカルコントローラにおいて, モデル不確実性に対処するためのガウスプロセス(GP)に基づくアプローチを提案する。
- 参考スコア(独自算出の注目度): 77.18483084440182
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Control Barrier Functions (CBFs) and Control Lyapunov Functions (CLFs) are
popular tools for enforcing safety and stability of a controlled system,
respectively. They are commonly utilized to build constraints that can be
incorporated in a min-norm quadratic program (CBF-CLF-QP) which solves for a
safety-critical control input. However, since these constraints rely on a model
of the system, when this model is inaccurate the guarantees of safety and
stability can be easily lost. In this paper, we present a Gaussian Process
(GP)-based approach to tackle the problem of model uncertainty in
safety-critical controllers that use CBFs and CLFs. The considered model
uncertainty is affected by both state and control input. We derive
probabilistic bounds on the effects that such model uncertainty has on the
dynamics of the CBF and CLF. Then, we use these bounds to build safety and
stability chance constraints that can be incorporated in a min-norm convex
optimization program, called GP-CBF-CLF-SOCP. As the main theoretical result of
the paper, we present necessary and sufficient conditions for pointwise
feasibility of the proposed optimization problem. We believe that these
conditions could serve as a starting point towards understanding what are the
minimal requirements on the distribution of data collected from the real system
in order to guarantee safety. Finally, we validate the proposed framework with
numerical simulations of an adaptive cruise controller for an automotive
system.
- Abstract(参考訳): 制御バリア関数(CBF)と制御リアプノフ関数(CLF)は、制御システムの安全性と安定性をそれぞれ強化するための一般的なツールである。
これらは一般に、安全クリティカルな制御入力の問題を解決するmin-norm quadratic Program(CBF-CLF-QP)に組み込まれる制約を構築するために使用される。
しかし、これらの制約はシステムのモデルに依存するため、このモデルが不正確な場合、安全性と安定性の保証は容易に失われる。
本稿では,CBF と CLF を用いた安全クリティカルコントローラのモデル不確実性に対処するためのガウスプロセス(GP)に基づくアプローチを提案する。
モデルの不確実性は状態入力と制御入力の両方に影響される。
このようなモデルの不確かさがcbfとclfのダイナミクスに与える影響について確率的境界を導出する。
GP-CBF-CLF-SOCPと呼ばれるミニノーム凸最適化プログラムに組み込むことのできる安全性と安定性の制約を構築する。
本論文の主な理論的結果として,提案した最適化問題のポイントワイズ実現に必要かつ十分な条件を提示する。
これらの条件は、安全性を保証するために実際のシステムから収集されたデータの分散に対する最小限の要件が何であるかを理解するための出発点となり得ると信じている。
最後に,自動車システムの適応型クルーズ制御器の数値シミュレーションにより,提案手法を検証する。
関連論文リスト
- Safe Neural Control for Non-Affine Control Systems with Differentiable
Control Barrier Functions [58.19198103790931]
本稿では,非アフィン制御系における安全クリティカル制御の問題に対処する。
制御バリア関数(CBF)を用いて,状態制約と制御制約の2次コストの最適化を2次プログラムのシーケンス(QP)にサブ最適化できることが示されている。
我々は,高次CBFをニューラル常微分方程式に基づく学習モデルに差分CBFとして組み込んで,非アフィン制御系の安全性を保証する。
論文 参考訳(メタデータ) (2023-09-06T05:35:48Z) - Recursively Feasible Probabilistic Safe Online Learning with Control Barrier Functions [60.26921219698514]
CBFをベースとした安全クリティカルコントローラのモデル不確実性を考慮した再構成を提案する。
次に、結果の安全制御器のポイントワイズ実現可能性条件を示す。
これらの条件を利用して、イベントトリガーによるオンラインデータ収集戦略を考案する。
論文 参考訳(メタデータ) (2022-08-23T05:02:09Z) - Learning Robust Output Control Barrier Functions from Safe Expert Demonstrations [50.37808220291108]
本稿では,専門家によるデモンストレーションの部分的な観察から,安全な出力フィードバック制御法を考察する。
まず,安全性を保証する手段として,ロバスト出力制御バリア関数(ROCBF)を提案する。
次に、安全なシステム動作を示す専門家による実証からROCBFを学習するための最適化問題を定式化する。
論文 参考訳(メタデータ) (2021-11-18T23:21:00Z) - Gaussian Process-based Min-norm Stabilizing Controller for
Control-Affine Systems with Uncertain Input Effects and Dynamics [90.81186513537777]
本稿では,この問題の制御・アフィン特性を捉えた新しい化合物カーネルを提案する。
この結果の最適化問題は凸であることを示し、ガウス過程に基づく制御リャプノフ関数第二次コーンプログラム(GP-CLF-SOCP)と呼ぶ。
論文 参考訳(メタデータ) (2020-11-14T01:27:32Z) - Reinforcement Learning for Safety-Critical Control under Model
Uncertainty, using Control Lyapunov Functions and Control Barrier Functions [96.63967125746747]
強化学習フレームワークは、CBFおよびCLF制約に存在するモデル不確実性を学ぶ。
RL-CBF-CLF-QPは、安全制約におけるモデル不確実性の問題に対処する。
論文 参考訳(メタデータ) (2020-04-16T10:51:33Z) - Neural Lyapunov Model Predictive Control: Learning Safe Global
Controllers from Sub-optimal Examples [4.777323087050061]
多くの実世界の産業アプリケーションでは、例えば人間の操作者による実行など、既存の制御戦略を持つことが典型的である。
この研究の目的は、安全と安定性を維持する新しいコントローラを学習することで、この未知の、安全だが、最適でないポリシーを改善することである。
提案アルゴリズムは、端末コストを学習し、安定性基準に従ってMPCパラメータを更新する。
論文 参考訳(メタデータ) (2020-02-21T16:57:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。