論文の概要: ProBF: Learning Probabilistic Safety Certificates with Barrier Functions
- arxiv url: http://arxiv.org/abs/2112.12210v1
- Date: Wed, 22 Dec 2021 20:18:18 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-24 16:37:24.682295
- Title: ProBF: Learning Probabilistic Safety Certificates with Barrier Functions
- Title(参考訳): ProBF: バリア機能を持つ確率的安全証明書の学習
- Authors: Sulin Liu, Athindran Ramesh Kumar, Jaime F. Fisac, Ryan P. Adams,
Peter J. Ramadge
- Abstract要約: 制御バリア関数は、地平系力学にアクセスできれば安全を保証できる便利なツールである。
実際には、システムダイナミクスに関する不正確な知識があるため、安全でない振る舞いにつながる可能性があります。
本手法の有効性をSegwayとQuadrotorのシミュレーション実験により示す。
- 参考スコア(独自算出の注目度): 31.203344483485843
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Safety-critical applications require controllers/policies that can guarantee
safety with high confidence. The control barrier function is a useful tool to
guarantee safety if we have access to the ground-truth system dynamics. In
practice, we have inaccurate knowledge of the system dynamics, which can lead
to unsafe behaviors due to unmodeled residual dynamics. Learning the residual
dynamics with deterministic machine learning models can prevent the unsafe
behavior but can fail when the predictions are imperfect. In this situation, a
probabilistic learning method that reasons about the uncertainty of its
predictions can help provide robust safety margins. In this work, we use a
Gaussian process to model the projection of the residual dynamics onto a
control barrier function. We propose a novel optimization procedure to generate
safe controls that can guarantee safety with high probability. The safety
filter is provided with the ability to reason about the uncertainty of the
predictions from the GP. We show the efficacy of this method through
experiments on Segway and Quadrotor simulations. Our proposed probabilistic
approach is able to reduce the number of safety violations significantly as
compared to the deterministic approach with a neural network.
- Abstract(参考訳): 安全クリティカルなアプリケーションは、高い信頼性で安全性を保証できるコントローラ/ポリティシーを必要とする。
制御障壁関数は、地上システムダイナミクスへのアクセス権があれば安全性を保証するための便利なツールである。
実際には、システムダイナミクスに関する不正確な知識があり、未モデリングの残留ダイナミクスによる安全でない振る舞いにつながる可能性がある。
決定論的機械学習モデルによる残留ダイナミクスの学習は、安全でない動作を防止できるが、予測が不完全な場合には失敗する可能性がある。
この状況では、予測の不確かさを理由とする確率的学習手法は、堅牢な安全性マージンを提供するのに役立つ。
本研究では,制御障壁関数への残留力学の射影をモデル化するためにガウス過程を用いる。
安全性を高い確率で保証できる安全制御を生成するための新しい最適化手法を提案する。
安全フィルタは、GPからの予測の不確かさを推論する機能を備えている。
本手法の有効性をSegwayとQuadrotorのシミュレーション実験により示す。
提案する確率論的アプローチは,ニューラルネットワークを用いた決定論的アプローチと比較して,安全性違反の数を大幅に削減することができる。
関連論文リスト
- Statistical Safety and Robustness Guarantees for Feedback Motion
Planning of Unknown Underactuated Stochastic Systems [1.0323063834827415]
本研究では, 平均力学モデルを用いたサンプリングベースプランナを提案し, 学習外乱境界による閉ループ追従誤差を同時に有界化する。
この保証は,10次元四角形ロボットのシミュレーションや,クレージーフライ四角形ロボットとクリアパスジャカルロボットの現実世界でのシミュレーションにおいて,経験的安全性に変換されることを検証した。
論文 参考訳(メタデータ) (2022-12-13T19:38:39Z) - ISAACS: Iterative Soft Adversarial Actor-Critic for Safety [0.9217021281095907]
この研究は、ロボットシステムのための堅牢な安全維持コントローラのスケーラブルな合成を可能にする新しいアプローチを導入する。
安全を追求するフォールバックポリシーは、モデルエラーの最悪のケースの実現を促進するために、敵の「混乱」エージェントと共同で訓練される。
学習した制御ポリシーは本質的に安全性を保証するものではないが、リアルタイムの安全フィルタを構築するために使用される。
論文 参考訳(メタデータ) (2022-12-06T18:53:34Z) - Meta-Learning Priors for Safe Bayesian Optimization [72.8349503901712]
メタ学習アルゴリズムであるF-PACOHを構築し,データ不足の設定において確実な定量化を実現する。
コアコントリビューションとして、安全に適合した事前をデータ駆動で選択するための新しいフレームワークを開発する。
ベンチマーク関数と高精度動作系において,我々のメタ学習先行が安全なBOアプローチの収束を加速することを示す。
論文 参考訳(メタデータ) (2022-10-03T08:38:38Z) - Recursively Feasible Probabilistic Safe Online Learning with Control Barrier Functions [60.26921219698514]
CBFをベースとした安全クリティカルコントローラのモデル不確実性を考慮した再構成を提案する。
次に、結果の安全制御器のポイントワイズ実現可能性条件を示す。
これらの条件を利用して、イベントトリガーによるオンラインデータ収集戦略を考案する。
論文 参考訳(メタデータ) (2022-08-23T05:02:09Z) - Verification of safety critical control policies using kernel methods [0.0]
ガウス過程を用いてハミルトン・ヤコビの到達可能性に固有の値関数の誤差をモデル化する枠組みを提案する。
誘導された安全制御装置は、任意のコントローラとの接続に使用することができ、安全なハイブリッド制御法を提供する。
論文 参考訳(メタデータ) (2022-03-23T13:33:02Z) - Fail-Safe Adversarial Generative Imitation Learning [9.594432031144716]
本稿では, 安全な生成連続ポリシー, エンドツーエンドの生成逆トレーニング, 最悪の場合の安全性保証を, クローズドフォームの確率密度/勾配で実現する安全層を提案する。
安全層は、すべてのアクションを安全なアクションの集合にマッピングし、変量式と密度の測定値の加算率を使用する。
実世界のドライバーのインタラクションデータに関する実験では,提案手法のトラクタビリティ,安全性,模倣性能を実証的に実証した。
論文 参考訳(メタデータ) (2022-03-03T13:03:06Z) - Pointwise Feasibility of Gaussian Process-based Safety-Critical Control
under Model Uncertainty [77.18483084440182]
制御バリア関数(CBF)と制御リアプノフ関数(CLF)は、制御システムの安全性と安定性をそれぞれ強化するための一般的なツールである。
本稿では, CBF と CLF を用いた安全クリティカルコントローラにおいて, モデル不確実性に対処するためのガウスプロセス(GP)に基づくアプローチを提案する。
論文 参考訳(メタデータ) (2021-06-13T23:08:49Z) - Probabilistic robust linear quadratic regulators with Gaussian processes [73.0364959221845]
ガウス過程(GP)のような確率モデルは、制御設計に続く使用のためのデータから未知の動的システムを学ぶための強力なツールです。
本稿では、確率的安定性マージンに関して堅牢なコントローラを生成する線形化GPダイナミクスのための新しいコントローラ合成について述べる。
論文 参考訳(メタデータ) (2021-05-17T08:36:18Z) - Chance-Constrained Trajectory Optimization for Safe Exploration and
Learning of Nonlinear Systems [81.7983463275447]
学習に基づく制御アルゴリズムは、訓練のための豊富な監督を伴うデータ収集を必要とする。
本稿では,機会制約付き最適制御と動的学習とフィードバック制御を統合した安全な探索による最適動作計画のための新しいアプローチを提案する。
論文 参考訳(メタデータ) (2020-05-09T05:57:43Z) - Learning Control Barrier Functions from Expert Demonstrations [69.23675822701357]
制御障壁関数(CBF)に基づく安全な制御器合成のための学習に基づくアプローチを提案する。
最適化に基づくCBFの学習手法を解析し、基礎となる力学系のリプシッツ仮定の下で証明可能な安全保証を享受する。
私たちの知る限りでは、これらはデータから確実に安全な制御障壁関数を学習する最初の結果です。
論文 参考訳(メタデータ) (2020-04-07T12:29:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。