論文の概要: Guaranteeing Safety of Learned Perception Modules via Measurement-Robust
Control Barrier Functions
- arxiv url: http://arxiv.org/abs/2010.16001v1
- Date: Fri, 30 Oct 2020 00:19:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-01 16:46:10.812064
- Title: Guaranteeing Safety of Learned Perception Modules via Measurement-Robust
Control Barrier Functions
- Title(参考訳): 計測・ロバスト制御障壁関数による学習知覚モジュールの安全性の保証
- Authors: Sarah Dean, Andrew J. Taylor, Ryan K. Cosner, Benjamin Recht, Aaron D.
Ames
- Abstract要約: 制御理論と機械学習の技術を一体化して、安全を達成するコントローラを合成したいと考えている。
我々は,安全な制御入力を決定するツールとして,計測ロバスト制御バリア関数(MR-CBF)を定義した。
シミュレーションセグウェイシステムにおいて, MR-CBFが測定モデルの不確実性による安全性を実現するための有効性を示す。
- 参考スコア(独自算出の注目度): 43.4346415363429
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Modern nonlinear control theory seeks to develop feedback controllers that
endow systems with properties such as safety and stability. The guarantees
ensured by these controllers often rely on accurate estimates of the system
state for determining control actions. In practice, measurement model
uncertainty can lead to error in state estimates that degrades these
guarantees. In this paper, we seek to unify techniques from control theory and
machine learning to synthesize controllers that achieve safety in the presence
of measurement model uncertainty. We define the notion of a Measurement-Robust
Control Barrier Function (MR-CBF) as a tool for determining safe control inputs
when facing measurement model uncertainty. Furthermore, MR-CBFs are used to
inform sampling methodologies for learning-based perception systems and
quantify tolerable error in the resulting learned models. We demonstrate the
efficacy of MR-CBFs in achieving safety with measurement model uncertainty on a
simulated Segway system.
- Abstract(参考訳): 現代の非線形制御理論は、安全性や安定性などの特性を持つシステムを与えるフィードバックコントローラの開発を目指している。
これらのコントローラによって保証される保証は、しばしば制御アクションを決定するためにシステム状態の正確な推定に依存する。
実際、測定モデルの不確実性は、これらの保証を劣化させる状態推定の誤りにつながる可能性がある。
本稿では,制御理論と機械学習の技術を統一し,測定モデルの不確実性が存在する場合に安全性を実現する制御器を合成する。
計測-ロバスト制御障壁関数(mr-cbf)の概念を,測定モデルの不確実性に直面する場合に安全な制御入力を決定するツールとして定義する。
さらに、MR-CBFは、学習に基づく知覚システムのサンプリング手法を通知し、学習モデルにおける許容誤差を定量化する。
シミュレーションセグウェイシステムにおいて, MR-CBFが測定モデルの不確実性による安全性を実現するための有効性を示す。
関連論文リスト
- Statistical Safety and Robustness Guarantees for Feedback Motion
Planning of Unknown Underactuated Stochastic Systems [1.0323063834827415]
本研究では, 平均力学モデルを用いたサンプリングベースプランナを提案し, 学習外乱境界による閉ループ追従誤差を同時に有界化する。
この保証は,10次元四角形ロボットのシミュレーションや,クレージーフライ四角形ロボットとクリアパスジャカルロボットの現実世界でのシミュレーションにおいて,経験的安全性に変換されることを検証した。
論文 参考訳(メタデータ) (2022-12-13T19:38:39Z) - Recursively Feasible Probabilistic Safe Online Learning with Control
Barrier Functions [63.18590014127461]
本稿では,CBFをベースとした安全クリティカルコントローラのモデル不確実性を考慮した再構成を提案する。
本研究では,ロバストな安全クリティカルコントローラの実現可能性について検討する。
次に、これらの条件を使って、イベントトリガーによるオンラインデータ収集戦略を考案します。
論文 参考訳(メタデータ) (2022-08-23T05:02:09Z) - Verification of safety critical control policies using kernel methods [0.0]
ガウス過程を用いてハミルトン・ヤコビの到達可能性に固有の値関数の誤差をモデル化する枠組みを提案する。
誘導された安全制御装置は、任意のコントローラとの接続に使用することができ、安全なハイブリッド制御法を提供する。
論文 参考訳(メタデータ) (2022-03-23T13:33:02Z) - Learning Robust Output Control Barrier Functions from Safe Expert
Demonstrations [50.37808220291108]
まず,安全性を保証する手段として,ロバスト出力制御バリア関数(ROCBF)を提案する。
次に、安全なシステム動作を示す専門家による実証からROCBFを学習するための最適化問題を定式化する。
我々は,自律走行シミュレータCARLAのアルゴリズムを実証的に検証し,RGBカメラ画像から安全な制御法を学習する方法を実証する。
論文 参考訳(メタデータ) (2021-11-18T23:21:00Z) - Pointwise Feasibility of Gaussian Process-based Safety-Critical Control
under Model Uncertainty [77.18483084440182]
制御バリア関数(CBF)と制御リアプノフ関数(CLF)は、制御システムの安全性と安定性をそれぞれ強化するための一般的なツールである。
本稿では, CBF と CLF を用いた安全クリティカルコントローラにおいて, モデル不確実性に対処するためのガウスプロセス(GP)に基づくアプローチを提案する。
論文 参考訳(メタデータ) (2021-06-13T23:08:49Z) - Runtime Safety Assurance Using Reinforcement Learning [37.61747231296097]
本稿では,安全でない状況を高精度に識別できるメタコントローラを設計することを目的とする。
我々は,RTSAの設計をマルコフ決定プロセス(MDP)と組み合わせ,強化学習(RL)を用いて解決する。
論文 参考訳(メタデータ) (2020-10-20T20:54:46Z) - Evaluating the Safety of Deep Reinforcement Learning Models using
Semi-Formal Verification [81.32981236437395]
本稿では,区間分析に基づく半形式的意思決定手法を提案する。
本手法は, 標準ベンチマークに比較して, 形式検証に対して比較結果を得る。
提案手法は, 意思決定モデルにおける安全性特性を効果的に評価することを可能にする。
論文 参考訳(メタデータ) (2020-10-19T11:18:06Z) - Reinforcement Learning for Safety-Critical Control under Model
Uncertainty, using Control Lyapunov Functions and Control Barrier Functions [96.63967125746747]
強化学習フレームワークは、CBFおよびCLF制約に存在するモデル不確実性を学ぶ。
RL-CBF-CLF-QPは、安全制約におけるモデル不確実性の問題に対処する。
論文 参考訳(メタデータ) (2020-04-16T10:51:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。