論文の概要: Guaranteeing Safety of Learned Perception Modules via Measurement-Robust
Control Barrier Functions
- arxiv url: http://arxiv.org/abs/2010.16001v1
- Date: Fri, 30 Oct 2020 00:19:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-01 16:46:10.812064
- Title: Guaranteeing Safety of Learned Perception Modules via Measurement-Robust
Control Barrier Functions
- Title(参考訳): 計測・ロバスト制御障壁関数による学習知覚モジュールの安全性の保証
- Authors: Sarah Dean, Andrew J. Taylor, Ryan K. Cosner, Benjamin Recht, Aaron D.
Ames
- Abstract要約: 制御理論と機械学習の技術を一体化して、安全を達成するコントローラを合成したいと考えている。
我々は,安全な制御入力を決定するツールとして,計測ロバスト制御バリア関数(MR-CBF)を定義した。
シミュレーションセグウェイシステムにおいて, MR-CBFが測定モデルの不確実性による安全性を実現するための有効性を示す。
- 参考スコア(独自算出の注目度): 43.4346415363429
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Modern nonlinear control theory seeks to develop feedback controllers that
endow systems with properties such as safety and stability. The guarantees
ensured by these controllers often rely on accurate estimates of the system
state for determining control actions. In practice, measurement model
uncertainty can lead to error in state estimates that degrades these
guarantees. In this paper, we seek to unify techniques from control theory and
machine learning to synthesize controllers that achieve safety in the presence
of measurement model uncertainty. We define the notion of a Measurement-Robust
Control Barrier Function (MR-CBF) as a tool for determining safe control inputs
when facing measurement model uncertainty. Furthermore, MR-CBFs are used to
inform sampling methodologies for learning-based perception systems and
quantify tolerable error in the resulting learned models. We demonstrate the
efficacy of MR-CBFs in achieving safety with measurement model uncertainty on a
simulated Segway system.
- Abstract(参考訳): 現代の非線形制御理論は、安全性や安定性などの特性を持つシステムを与えるフィードバックコントローラの開発を目指している。
これらのコントローラによって保証される保証は、しばしば制御アクションを決定するためにシステム状態の正確な推定に依存する。
実際、測定モデルの不確実性は、これらの保証を劣化させる状態推定の誤りにつながる可能性がある。
本稿では,制御理論と機械学習の技術を統一し,測定モデルの不確実性が存在する場合に安全性を実現する制御器を合成する。
計測-ロバスト制御障壁関数(mr-cbf)の概念を,測定モデルの不確実性に直面する場合に安全な制御入力を決定するツールとして定義する。
さらに、MR-CBFは、学習に基づく知覚システムのサンプリング手法を通知し、学習モデルにおける許容誤差を定量化する。
シミュレーションセグウェイシステムにおいて, MR-CBFが測定モデルの不確実性による安全性を実現するための有効性を示す。
関連論文リスト
- Learning-Based Shielding for Safe Autonomy under Unknown Dynamics [9.786577115501602]
シールド(英: Shielding)は、ブラックボックスコントローラの下でシステムの安全性を保証する方法である。
本稿では,未知システムの安全性を保証するデータ駆動遮蔽手法を提案する。
論文 参考訳(メタデータ) (2024-10-07T16:10:15Z) - Statistical Safety and Robustness Guarantees for Feedback Motion
Planning of Unknown Underactuated Stochastic Systems [1.0323063834827415]
本研究では, 平均力学モデルを用いたサンプリングベースプランナを提案し, 学習外乱境界による閉ループ追従誤差を同時に有界化する。
この保証は,10次元四角形ロボットのシミュレーションや,クレージーフライ四角形ロボットとクリアパスジャカルロボットの現実世界でのシミュレーションにおいて,経験的安全性に変換されることを検証した。
論文 参考訳(メタデータ) (2022-12-13T19:38:39Z) - Recursively Feasible Probabilistic Safe Online Learning with Control Barrier Functions [60.26921219698514]
CBFをベースとした安全クリティカルコントローラのモデル不確実性を考慮した再構成を提案する。
次に、結果の安全制御器のポイントワイズ実現可能性条件を示す。
これらの条件を利用して、イベントトリガーによるオンラインデータ収集戦略を考案する。
論文 参考訳(メタデータ) (2022-08-23T05:02:09Z) - Verification of safety critical control policies using kernel methods [0.0]
ガウス過程を用いてハミルトン・ヤコビの到達可能性に固有の値関数の誤差をモデル化する枠組みを提案する。
誘導された安全制御装置は、任意のコントローラとの接続に使用することができ、安全なハイブリッド制御法を提供する。
論文 参考訳(メタデータ) (2022-03-23T13:33:02Z) - Learning Robust Output Control Barrier Functions from Safe Expert Demonstrations [50.37808220291108]
本稿では,専門家によるデモンストレーションの部分的な観察から,安全な出力フィードバック制御法を考察する。
まず,安全性を保証する手段として,ロバスト出力制御バリア関数(ROCBF)を提案する。
次に、安全なシステム動作を示す専門家による実証からROCBFを学習するための最適化問題を定式化する。
論文 参考訳(メタデータ) (2021-11-18T23:21:00Z) - Pointwise Feasibility of Gaussian Process-based Safety-Critical Control
under Model Uncertainty [77.18483084440182]
制御バリア関数(CBF)と制御リアプノフ関数(CLF)は、制御システムの安全性と安定性をそれぞれ強化するための一般的なツールである。
本稿では, CBF と CLF を用いた安全クリティカルコントローラにおいて, モデル不確実性に対処するためのガウスプロセス(GP)に基づくアプローチを提案する。
論文 参考訳(メタデータ) (2021-06-13T23:08:49Z) - Evaluating the Safety of Deep Reinforcement Learning Models using
Semi-Formal Verification [81.32981236437395]
本稿では,区間分析に基づく半形式的意思決定手法を提案する。
本手法は, 標準ベンチマークに比較して, 形式検証に対して比較結果を得る。
提案手法は, 意思決定モデルにおける安全性特性を効果的に評価することを可能にする。
論文 参考訳(メタデータ) (2020-10-19T11:18:06Z) - Reinforcement Learning for Safety-Critical Control under Model
Uncertainty, using Control Lyapunov Functions and Control Barrier Functions [96.63967125746747]
強化学習フレームワークは、CBFおよびCLF制約に存在するモデル不確実性を学ぶ。
RL-CBF-CLF-QPは、安全制約におけるモデル不確実性の問題に対処する。
論文 参考訳(メタデータ) (2020-04-16T10:51:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。