論文の概要: Recursively Feasible Probabilistic Safe Online Learning with Control
Barrier Functions
- arxiv url: http://arxiv.org/abs/2208.10733v2
- Date: Tue, 26 Sep 2023 21:40:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-29 00:15:33.937674
- Title: Recursively Feasible Probabilistic Safe Online Learning with Control
Barrier Functions
- Title(参考訳): 制御バリア関数を用いた確率論的安全なオンライン学習
- Authors: Fernando Casta\~neda, Jason J. Choi, Wonsuhk Jung, Bike Zhang, Claire
J. Tomlin, Koushil Sreenath
- Abstract要約: 本稿では,CBFをベースとした安全クリティカルコントローラのモデル不確実性を考慮した再構成を提案する。
本研究では,ロバストな安全クリティカルコントローラの実現可能性について検討する。
次に、これらの条件を使って、イベントトリガーによるオンラインデータ収集戦略を考案します。
- 参考スコア(独自算出の注目度): 63.18590014127461
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning-based control schemes have recently shown great efficacy performing
complex tasks for a wide variety of applications. However, in order to deploy
them in real systems, it is of vital importance to guarantee that the system
will remain safe during online training and execution. Among the currently most
popular methods to tackle this challenge, Control Barrier Functions (CBFs)
serve as mathematical tools that provide a formal safety-preserving control
synthesis procedure for systems with known dynamics. In this paper, we first
introduce a model-uncertainty-aware reformulation of CBF-based safety-critical
controllers using Gaussian Process (GP) regression to bridge the gap between an
approximate mathematical model and the real system. Compared to previous
approaches, we study the feasibility of the resulting robust safety-critical
controller. This feasibility analysis results in a set of richness conditions
that the available information about the system should satisfy to guarantee
that a safe control action can be found at all times. We then use these
conditions to devise an event-triggered online data collection strategy that
ensures the recursive feasibility of the learned safety-critical controller.
Our proposed methodology endows the system with the ability to reason at all
times about whether the current information at its disposal is enough to ensure
safety or if new measurements are required. This, in turn, allows us to provide
formal results of forward invariance of a safe set with high probability, even
in a priori unexplored regions. Finally, we validate the proposed framework in
numerical simulations of an adaptive cruise control system and a kinematic
vehicle.
- Abstract(参考訳): 学習ベースの制御スキームは、最近、様々なアプリケーションで複雑なタスクを実行する素晴らしい効果を示している。
しかし、実際のシステムにデプロイするには、オンライントレーニングと実行の間、システムが安全であることを保証することが極めて重要である。
この課題に対処する最も一般的な方法のうち、制御バリア関数(CBF)は、既知の力学を持つシステムに対して、正式な安全保存制御合成手順を提供する数学的ツールである。
本稿では,まずgaussian process (gp)回帰を用いたcbfベースの安全クリティカルコントローラのモデル不確実性を考慮した再構成を行い,近似数学モデルと実システムとのギャップを橋渡しする。
従来のアプローチと比較して,ロバストな安全クリティカルコントローラの実現可能性について検討した。
この実現可能性分析は、利用可能なシステムに関する情報が常に安全な制御アクションが見つかることを保証するために満たすべき一連の豊かさ条件をもたらす。
次に、これらの条件を用いて、学習した安全クリティカルコントローラの再帰的実現性を保証する、イベントトリガー付きオンラインデータ収集戦略を考案する。
提案手法は,現在処理中の情報が安全を確保するのに十分なものであるか,新しい測定が必要なのかを常に判断できる能力を備えたシステムを実現する。
これにより、事前探索されていない領域であっても、高い確率で安全な集合の前方不変性の公式な結果が得られる。
最後に,適応型クルーズ制御システムとキネマティック車両の数値シミュレーションにおいて,提案手法を検証した。
関連論文リスト
- Meta-Learning Priors for Safe Bayesian Optimization [72.8349503901712]
メタ学習アルゴリズムであるF-PACOHを構築し,データ不足の設定において確実な定量化を実現する。
コアコントリビューションとして、安全に適合した事前をデータ駆動で選択するための新しいフレームワークを開発する。
ベンチマーク関数と高精度動作系において,我々のメタ学習先行が安全なBOアプローチの収束を加速することを示す。
論文 参考訳(メタデータ) (2022-10-03T08:38:38Z) - Sample-efficient Safe Learning for Online Nonlinear Control with Control
Barrier Functions [35.9713619595494]
強化学習と連続非線形制御は、複雑なシーケンシャルな意思決定タスクの複数の領域にうまく展開されている。
学習過程の探索特性とモデル不確実性の存在を考えると、それらを安全クリティカルな制御タスクに適用することは困難である。
本稿では,オンライン制御タスクを対象とした,効率のよいエピソード型安全な学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-29T00:54:35Z) - Joint Differentiable Optimization and Verification for Certified
Reinforcement Learning [91.93635157885055]
安全クリティカル制御システムのためのモデルベース強化学習では,システム特性を正式に認定することが重要である。
本稿では,強化学習と形式検証を共同で行う枠組みを提案する。
論文 参考訳(メタデータ) (2022-01-28T16:53:56Z) - ProBF: Learning Probabilistic Safety Certificates with Barrier Functions [31.203344483485843]
制御バリア関数は、地平系力学にアクセスできれば安全を保証できる便利なツールである。
実際には、システムダイナミクスに関する不正確な知識があるため、安全でない振る舞いにつながる可能性があります。
本手法の有効性をSegwayとQuadrotorのシミュレーション実験により示す。
論文 参考訳(メタデータ) (2021-12-22T20:18:18Z) - Learning Robust Output Control Barrier Functions from Safe Expert
Demonstrations [50.37808220291108]
まず,安全性を保証する手段として,ロバスト出力制御バリア関数(ROCBF)を提案する。
次に、安全なシステム動作を示す専門家による実証からROCBFを学習するための最適化問題を定式化する。
我々は,自律走行シミュレータCARLAのアルゴリズムを実証的に検証し,RGBカメラ画像から安全な制御法を学習する方法を実証する。
論文 参考訳(メタデータ) (2021-11-18T23:21:00Z) - Pointwise Feasibility of Gaussian Process-based Safety-Critical Control
under Model Uncertainty [77.18483084440182]
制御バリア関数(CBF)と制御リアプノフ関数(CLF)は、制御システムの安全性と安定性をそれぞれ強化するための一般的なツールである。
本稿では, CBF と CLF を用いた安全クリティカルコントローラにおいて, モデル不確実性に対処するためのガウスプロセス(GP)に基づくアプローチを提案する。
論文 参考訳(メタデータ) (2021-06-13T23:08:49Z) - Learning Hybrid Control Barrier Functions from Data [66.37785052099423]
ハイブリッドシステムの安全な制御法則を得るための体系的なツールが欠如していることから,データから確実に安全な制御法則を学習するための最適化ベースのフレームワークを提案する。
特に、システムダイナミクスが知られており、安全なシステム動作を示すデータが利用可能であるような設定を仮定する。
論文 参考訳(メタデータ) (2020-11-08T23:55:02Z) - Neural Lyapunov Model Predictive Control: Learning Safe Global
Controllers from Sub-optimal Examples [4.777323087050061]
多くの実世界の産業アプリケーションでは、例えば人間の操作者による実行など、既存の制御戦略を持つことが典型的である。
この研究の目的は、安全と安定性を維持する新しいコントローラを学習することで、この未知の、安全だが、最適でないポリシーを改善することである。
提案アルゴリズムは、端末コストを学習し、安定性基準に従ってMPCパラメータを更新する。
論文 参考訳(メタデータ) (2020-02-21T16:57:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。