論文の概要: Probabilistic Safe Online Learning with Control Barrier Functions
- arxiv url: http://arxiv.org/abs/2208.10733v1
- Date: Tue, 23 Aug 2022 05:02:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-24 14:12:27.453165
- Title: Probabilistic Safe Online Learning with Control Barrier Functions
- Title(参考訳): 制御障壁関数を用いた確率的安全なオンライン学習
- Authors: Fernando Casta\~neda, Jason J. Choi, Wonsuhk Jung, Bike Zhang, Claire
J. Tomlin, Koushil Sreenath
- Abstract要約: 学習に基づく制御スキームは、最近、複雑なタスクを実行する大きな有効性を示している。
実際のシステムにデプロイするためには、オンライントレーニングや実行中にシステムが安全であることを保証することが不可欠である。
まず,少なくとも1つの安全バックアップ方向が常に使用可能であることを保証するために,必要なときに計測を積極的に収集するアウト・オブ・ディストリビューション検出機構を提案する。
- 参考スコア(独自算出の注目度): 85.70263232030078
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning-based control schemes have recently shown great efficacy performing
complex tasks. However, in order to deploy them in real systems, it is of vital
importance to guarantee that the system will remain safe during online training
and execution. We therefore need safe online learning frameworks able to
autonomously reason about whether the current information at their disposal is
enough to ensure safety or, in contrast, new measurements are required. In this
paper, we present a framework consisting of two parts: first, an
out-of-distribution detection mechanism actively collecting measurements when
needed to guarantee that at least one safety backup direction is always
available for use; and second, a Gaussian Process-based probabilistic
safety-critical controller that ensures the system stays safe at all times with
high probability. Our method exploits model knowledge through the use of
Control Barrier Functions, and collects measurements from the stream of online
data in an event-triggered fashion to guarantee recursive feasibility of the
learned safety-critical controller. This, in turn, allows us to provide formal
results of forward invariance of a safe set with high probability, even in a
priori unexplored regions. Finally, we validate the proposed framework in
numerical simulations of an adaptive cruise control system.
- Abstract(参考訳): 学習に基づく制御スキームは、最近、複雑なタスクを実行する大きな有効性を示している。
しかし、実際のシステムにデプロイするには、オンライントレーニングと実行の間、システムが安全であることを保証することが極めて重要である。
したがって、安全なオンライン学習フレームワークは、その処理時の現在の情報が安全性を確保するのに十分なかどうかを自律的に判断できる必要があります。
本稿では,少なくとも1つの安全バックアップ方向が常に使用可能であることを保証するために,必要な計測を積極的に収集する分散検出機構と,システムが常に高い確率で安全であることを保証するガウス過程に基づく確率論的安全クリティカルコントローラの2つの部分からなる枠組みを提案する。
本手法は,制御バリア関数を用いてモデル知識を活用し,オンラインデータのストリームからイベントトリガー方式で測定値を収集し,学習した安全クリティカルコントローラの再帰性を保証する。
これにより、事前探索されていない領域であっても、高い確率で安全な集合の前方不変性の公式な結果が得られる。
最後に,適応型クルーズ制御システムの数値シミュレーションにおいて提案手法を検証した。
関連論文リスト
- Meta-Learning Priors for Safe Bayesian Optimization [72.8349503901712]
メタ学習アルゴリズムであるF-PACOHを構築し,データ不足の設定において確実な定量化を実現する。
コアコントリビューションとして、安全に適合した事前をデータ駆動で選択するための新しいフレームワークを開発する。
ベンチマーク関数と高精度動作系において,我々のメタ学習先行が安全なBOアプローチの収束を加速することを示す。
論文 参考訳(メタデータ) (2022-10-03T08:38:38Z) - Sample-efficient Safe Learning for Online Nonlinear Control with Control
Barrier Functions [35.9713619595494]
強化学習と連続非線形制御は、複雑なシーケンシャルな意思決定タスクの複数の領域にうまく展開されている。
学習過程の探索特性とモデル不確実性の存在を考えると、それらを安全クリティカルな制御タスクに適用することは困難である。
本稿では,オンライン制御タスクを対象とした,効率のよいエピソード型安全な学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-29T00:54:35Z) - Joint Differentiable Optimization and Verification for Certified
Reinforcement Learning [91.93635157885055]
安全クリティカル制御システムのためのモデルベース強化学習では,システム特性を正式に認定することが重要である。
本稿では,強化学習と形式検証を共同で行う枠組みを提案する。
論文 参考訳(メタデータ) (2022-01-28T16:53:56Z) - ProBF: Learning Probabilistic Safety Certificates with Barrier Functions [31.203344483485843]
制御バリア関数は、地平系力学にアクセスできれば安全を保証できる便利なツールである。
実際には、システムダイナミクスに関する不正確な知識があるため、安全でない振る舞いにつながる可能性があります。
本手法の有効性をSegwayとQuadrotorのシミュレーション実験により示す。
論文 参考訳(メタデータ) (2021-12-22T20:18:18Z) - Learning Robust Output Control Barrier Functions from Safe Expert
Demonstrations [50.37808220291108]
まず,安全性を保証する手段として,ロバスト出力制御バリア関数(ROCBF)を提案する。
次に、安全なシステム動作を示す専門家による実証からROCBFを学習するための最適化問題を定式化する。
我々は,自律走行シミュレータCARLAのアルゴリズムを実証的に検証し,RGBカメラ画像から安全な制御法を学習する方法を実証する。
論文 参考訳(メタデータ) (2021-11-18T23:21:00Z) - Pointwise Feasibility of Gaussian Process-based Safety-Critical Control
under Model Uncertainty [77.18483084440182]
制御バリア関数(CBF)と制御リアプノフ関数(CLF)は、制御システムの安全性と安定性をそれぞれ強化するための一般的なツールである。
本稿では, CBF と CLF を用いた安全クリティカルコントローラにおいて, モデル不確実性に対処するためのガウスプロセス(GP)に基づくアプローチを提案する。
論文 参考訳(メタデータ) (2021-06-13T23:08:49Z) - Learning Hybrid Control Barrier Functions from Data [66.37785052099423]
ハイブリッドシステムの安全な制御法則を得るための体系的なツールが欠如していることから,データから確実に安全な制御法則を学習するための最適化ベースのフレームワークを提案する。
特に、システムダイナミクスが知られており、安全なシステム動作を示すデータが利用可能であるような設定を仮定する。
論文 参考訳(メタデータ) (2020-11-08T23:55:02Z) - Neural Lyapunov Model Predictive Control: Learning Safe Global
Controllers from Sub-optimal Examples [4.777323087050061]
多くの実世界の産業アプリケーションでは、例えば人間の操作者による実行など、既存の制御戦略を持つことが典型的である。
この研究の目的は、安全と安定性を維持する新しいコントローラを学習することで、この未知の、安全だが、最適でないポリシーを改善することである。
提案アルゴリズムは、端末コストを学習し、安定性基準に従ってMPCパラメータを更新する。
論文 参考訳(メタデータ) (2020-02-21T16:57:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。