論文の概要: Probabilistic Safe Online Learning with Control Barrier Functions
- arxiv url: http://arxiv.org/abs/2208.10733v1
- Date: Tue, 23 Aug 2022 05:02:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-24 14:12:27.453165
- Title: Probabilistic Safe Online Learning with Control Barrier Functions
- Title(参考訳): 制御障壁関数を用いた確率的安全なオンライン学習
- Authors: Fernando Casta\~neda, Jason J. Choi, Wonsuhk Jung, Bike Zhang, Claire
J. Tomlin, Koushil Sreenath
- Abstract要約: 学習に基づく制御スキームは、最近、複雑なタスクを実行する大きな有効性を示している。
実際のシステムにデプロイするためには、オンライントレーニングや実行中にシステムが安全であることを保証することが不可欠である。
まず,少なくとも1つの安全バックアップ方向が常に使用可能であることを保証するために,必要なときに計測を積極的に収集するアウト・オブ・ディストリビューション検出機構を提案する。
- 参考スコア(独自算出の注目度): 85.70263232030078
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning-based control schemes have recently shown great efficacy performing
complex tasks. However, in order to deploy them in real systems, it is of vital
importance to guarantee that the system will remain safe during online training
and execution. We therefore need safe online learning frameworks able to
autonomously reason about whether the current information at their disposal is
enough to ensure safety or, in contrast, new measurements are required. In this
paper, we present a framework consisting of two parts: first, an
out-of-distribution detection mechanism actively collecting measurements when
needed to guarantee that at least one safety backup direction is always
available for use; and second, a Gaussian Process-based probabilistic
safety-critical controller that ensures the system stays safe at all times with
high probability. Our method exploits model knowledge through the use of
Control Barrier Functions, and collects measurements from the stream of online
data in an event-triggered fashion to guarantee recursive feasibility of the
learned safety-critical controller. This, in turn, allows us to provide formal
results of forward invariance of a safe set with high probability, even in a
priori unexplored regions. Finally, we validate the proposed framework in
numerical simulations of an adaptive cruise control system.
- Abstract(参考訳): 学習に基づく制御スキームは、最近、複雑なタスクを実行する大きな有効性を示している。
しかし、実際のシステムにデプロイするには、オンライントレーニングと実行の間、システムが安全であることを保証することが極めて重要である。
したがって、安全なオンライン学習フレームワークは、その処理時の現在の情報が安全性を確保するのに十分なかどうかを自律的に判断できる必要があります。
本稿では,少なくとも1つの安全バックアップ方向が常に使用可能であることを保証するために,必要な計測を積極的に収集する分散検出機構と,システムが常に高い確率で安全であることを保証するガウス過程に基づく確率論的安全クリティカルコントローラの2つの部分からなる枠組みを提案する。
本手法は,制御バリア関数を用いてモデル知識を活用し,オンラインデータのストリームからイベントトリガー方式で測定値を収集し,学習した安全クリティカルコントローラの再帰性を保証する。
これにより、事前探索されていない領域であっても、高い確率で安全な集合の前方不変性の公式な結果が得られる。
最後に,適応型クルーズ制御システムの数値シミュレーションにおいて提案手法を検証した。
関連論文リスト
- Safe Online Dynamics Learning with Initially Unknown Models and
Infeasible Safety Certificates [45.72598064481916]
本稿では、制御バリア関数(CBF)2次コーンプログラムに基づく、堅牢な安全証明書を備えた学習ベースの設定について考察する。
制御バリア関数証明書が実現可能ならば,その安全性を確保するため,本手法では,データ収集と制御バリア関数制約の実現可能性の回復のために,システムダイナミクスを探索する。
論文 参考訳(メタデータ) (2023-11-03T14:23:57Z) - Searching for Optimal Runtime Assurance via Reachability and
Reinforcement Learning [2.422636931175853]
あるプラントのランタイム保証システム(RTA)は、バックアップコントローラで安全性を確保しながら、信頼できないまたは実験的なコントローラの運動を可能にする。
既存のRTA設計戦略は、過度に保守的であることで知られており、原則として、安全違反につながる可能性がある。
本稿では、最適RTA設計問題を定式化し、それを解決するための新しいアプローチを提案する。
論文 参考訳(メタデータ) (2023-10-06T14:45:57Z) - Meta-Learning Priors for Safe Bayesian Optimization [72.8349503901712]
メタ学習アルゴリズムであるF-PACOHを構築し,データ不足の設定において確実な定量化を実現する。
コアコントリビューションとして、安全に適合した事前をデータ駆動で選択するための新しいフレームワークを開発する。
ベンチマーク関数と高精度動作系において,我々のメタ学習先行が安全なBOアプローチの収束を加速することを示す。
論文 参考訳(メタデータ) (2022-10-03T08:38:38Z) - Enforcing Hard Constraints with Soft Barriers: Safe Reinforcement
Learning in Unknown Stochastic Environments [84.3830478851369]
本研究では,環境を協調的に学習し,制御ポリシーを最適化する安全な強化学習手法を提案する。
本手法は, 安全性の制約を効果的に適用し, シミュレーションにより測定したシステム安全率においてCMDPベースのベースライン法を著しく上回っている。
論文 参考訳(メタデータ) (2022-09-29T20:49:25Z) - Sample-efficient Safe Learning for Online Nonlinear Control with Control
Barrier Functions [35.9713619595494]
強化学習と連続非線形制御は、複雑なシーケンシャルな意思決定タスクの複数の領域にうまく展開されている。
学習過程の探索特性とモデル不確実性の存在を考えると、それらを安全クリティカルな制御タスクに適用することは困難である。
本稿では,オンライン制御タスクを対象とした,効率のよいエピソード型安全な学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-29T00:54:35Z) - ProBF: Learning Probabilistic Safety Certificates with Barrier Functions [31.203344483485843]
制御バリア関数は、地平系力学にアクセスできれば安全を保証できる便利なツールである。
実際には、システムダイナミクスに関する不正確な知識があるため、安全でない振る舞いにつながる可能性があります。
本手法の有効性をSegwayとQuadrotorのシミュレーション実験により示す。
論文 参考訳(メタデータ) (2021-12-22T20:18:18Z) - Learning Robust Output Control Barrier Functions from Safe Expert Demonstrations [50.37808220291108]
本稿では,専門家によるデモンストレーションの部分的な観察から,安全な出力フィードバック制御法を考察する。
まず,安全性を保証する手段として,ロバスト出力制御バリア関数(ROCBF)を提案する。
次に、安全なシステム動作を示す専門家による実証からROCBFを学習するための最適化問題を定式化する。
論文 参考訳(メタデータ) (2021-11-18T23:21:00Z) - Pointwise Feasibility of Gaussian Process-based Safety-Critical Control
under Model Uncertainty [77.18483084440182]
制御バリア関数(CBF)と制御リアプノフ関数(CLF)は、制御システムの安全性と安定性をそれぞれ強化するための一般的なツールである。
本稿では, CBF と CLF を用いた安全クリティカルコントローラにおいて, モデル不確実性に対処するためのガウスプロセス(GP)に基づくアプローチを提案する。
論文 参考訳(メタデータ) (2021-06-13T23:08:49Z) - Learning Hybrid Control Barrier Functions from Data [66.37785052099423]
ハイブリッドシステムの安全な制御法則を得るための体系的なツールが欠如していることから,データから確実に安全な制御法則を学習するための最適化ベースのフレームワークを提案する。
特に、システムダイナミクスが知られており、安全なシステム動作を示すデータが利用可能であるような設定を仮定する。
論文 参考訳(メタデータ) (2020-11-08T23:55:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。