論文の概要: DADEE: Well-calibrated uncertainty quantification in neural networks for barriers-based robot safety
- arxiv url: http://arxiv.org/abs/2407.00616v1
- Date: Sun, 30 Jun 2024 07:55:32 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-04 02:17:05.269049
- Title: DADEE: Well-calibrated uncertainty quantification in neural networks for barriers-based robot safety
- Title(参考訳): DADEE:障壁に基づくロボットの安全性のためのニューラルネットワークにおけるよく校正された不確実性定量化
- Authors: Masoud Ataei, Vikas Dhiman,
- Abstract要約: 制御バリア関数(CBF)ベースのアプローチは、高速で安全であるため人気がある。
学習と不確実性推定のためのGPとMC-Dropoutには欠点がある。
GPは遅い非パラメトリック法であるが、MC-Dropoutはアレタリック不確かさを捉えない。
2つのアプローチを組み合わせて、ドメイン内および外部の両方でより正確な不確実性推定を得る。
- 参考スコア(独自算出の注目度): 1.680461336282617
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Uncertainty-aware controllers that guarantee safety are critical for safety critical applications. Among such controllers, Control Barrier Functions (CBFs) based approaches are popular because they are fast, yet safe. However, most such works depend on Gaussian Processes (GPs) or MC-Dropout for learning and uncertainty estimation, and both approaches come with drawbacks: GPs are non-parametric methods that are slow, while MC-Dropout does not capture aleatoric uncertainty. On the other hand, modern Bayesian learning algorithms have shown promise in uncertainty quantification. The application of modern Bayesian learning methods to CBF-based controllers has not yet been studied. We aim to fill this gap by surveying uncertainty quantification algorithms and evaluating them on CBF-based safe controllers. We find that model variance-based algorithms (for example, Deep ensembles, MC-dropout, etc.) and direct estimation-based algorithms (such as DEUP) have complementary strengths. Algorithms in the former category can only estimate uncertainty accurately out-of-domain, while those in the latter category can only do so in-domain. We combine the two approaches to obtain more accurate uncertainty estimates both in- and out-of-domain. As measured by the failure rate of a simulated robot, this results in a safer CBF-based robot controller.
- Abstract(参考訳): 安全を保証する不確実性対応コントローラは、安全クリティカルなアプリケーションには不可欠である。
このようなコントローラの中で、制御バリア関数(CBF)ベースのアプローチは高速で安全であるため人気がある。
しかし、ほとんどの研究は学習と不確実性推定のためにガウス過程 (GP) や MC-Dropout に依存しており、どちらの手法にも欠点がある: GP は遅い非パラメトリックな手法であり、MC-Dropout はアレター的不確かさを捉えない。
一方、現代のベイズ学習アルゴリズムは不確実な定量化の可能性を示してきた。
現代のベイズ学習法のCBFベースコントローラへの応用はまだ研究されていない。
我々は、不確実な定量化アルゴリズムを調査し、CBFベースの安全コントローラ上で評価することで、このギャップを埋めることを目指している。
モデル分散に基づくアルゴリズム(ディープアンサンブル,MCドロップアウトなど)と直接推定に基づくアルゴリズム(DEUPなど)は相補的な強みを持つ。
前者のカテゴリのアルゴリズムは正確な領域外不確実性しか推定できないが、後者のカテゴリのアルゴリズムはドメイン内のみを推定できる。
2つのアプローチを組み合わせて、ドメイン内および外部の両方でより正確な不確実性推定を得る。
シミュレーションロボットの故障率から測定すると、より安全なCBFベースのロボットコントローラが得られる。
関連論文リスト
- Predicting Safety Misbehaviours in Autonomous Driving Systems using Uncertainty Quantification [8.213390074932132]
本稿では, 深層学習領域と異なる不確実性定量化手法を, 安全クリティカルな誤動作の予測試験のために評価する。
車両が実施する不確実性スコアは、高い不確実性スコアがサポートされていない実行条件を示すという直感に従って計算する。
本研究では,MC-DropoutとDeep Ensemblesの2つの不確実な定量化手法,すなわち,誤動作回避のための有効性と計算オーバーヘッドの評価を行った。
論文 参考訳(メタデータ) (2024-04-29T10:28:28Z) - Meta-Learning Priors for Safe Bayesian Optimization [72.8349503901712]
メタ学習アルゴリズムであるF-PACOHを構築し,データ不足の設定において確実な定量化を実現する。
コアコントリビューションとして、安全に適合した事前をデータ駆動で選択するための新しいフレームワークを開発する。
ベンチマーク関数と高精度動作系において,我々のメタ学習先行が安全なBOアプローチの収束を加速することを示す。
論文 参考訳(メタデータ) (2022-10-03T08:38:38Z) - Recursively Feasible Probabilistic Safe Online Learning with Control Barrier Functions [60.26921219698514]
CBFをベースとした安全クリティカルコントローラのモデル不確実性を考慮した再構成を提案する。
次に、結果の安全制御器のポイントワイズ実現可能性条件を示す。
これらの条件を利用して、イベントトリガーによるオンラインデータ収集戦略を考案する。
論文 参考訳(メタデータ) (2022-08-23T05:02:09Z) - Log Barriers for Safe Black-box Optimization with Application to Safe
Reinforcement Learning [72.97229770329214]
本稿では,学習時の安全性維持が不可欠である高次元非線形最適化問題に対する一般的なアプローチを提案する。
LBSGDと呼ばれるアプローチは、慎重に選択されたステップサイズで対数障壁近似を適用することに基づいている。
安全強化学習における政策課題の違反を最小限に抑えるためのアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2022-07-21T11:14:47Z) - Gaussian Control Barrier Functions : A Non-Parametric Paradigm to Safety [7.921648699199647]
ガウス過程(GP)を用いたCBFのオンライン合成のための非パラメトリック手法を提案する。
GPは解析的トラクタビリティやロバストな不確実性推定などの非パラメトリック性に加えて、好ましい性質を持つ。
固定的かつ任意の安全な集合に対する安全な制御を実証することにより、クワッド上で実験により検証する。
論文 参考訳(メタデータ) (2022-03-29T12:21:28Z) - Verification of safety critical control policies using kernel methods [0.0]
ガウス過程を用いてハミルトン・ヤコビの到達可能性に固有の値関数の誤差をモデル化する枠組みを提案する。
誘導された安全制御装置は、任意のコントローラとの接続に使用することができ、安全なハイブリッド制御法を提供する。
論文 参考訳(メタデータ) (2022-03-23T13:33:02Z) - $f$-Cal: Calibrated aleatoric uncertainty estimation from neural
networks for robot perception [9.425514903472545]
既存のアプローチでは、ネットワークアーキテクチャ、推論手順、損失関数を変更することで、ニューラルネットワークの知覚スタックから不確実性を推定する。
私たちの重要な洞察は、キャリブレーションはミニバッチのような複数の例に制約を課すことでのみ達成できるということです。
ニューラルネットワークの出力分布を、$f$-divergenceを最小にすることで、ターゲット分布に類似させることにより、従来のアプローチに比べてはるかに優れた校正モデルが得られる。
論文 参考訳(メタデータ) (2021-09-28T17:57:58Z) - Pointwise Feasibility of Gaussian Process-based Safety-Critical Control
under Model Uncertainty [77.18483084440182]
制御バリア関数(CBF)と制御リアプノフ関数(CLF)は、制御システムの安全性と安定性をそれぞれ強化するための一般的なツールである。
本稿では, CBF と CLF を用いた安全クリティカルコントローラにおいて, モデル不確実性に対処するためのガウスプロセス(GP)に基づくアプローチを提案する。
論文 参考訳(メタデータ) (2021-06-13T23:08:49Z) - Bayesian Optimization with Machine Learning Algorithms Towards Anomaly
Detection [66.05992706105224]
本稿では,ベイズ最適化手法を用いた効果的な異常検出フレームワークを提案する。
ISCX 2012データセットを用いて検討したアルゴリズムの性能を評価する。
実験結果から, 精度, 精度, 低コストアラームレート, リコールの観点から, 提案手法の有効性が示された。
論文 参考訳(メタデータ) (2020-08-05T19:29:35Z) - A Comparison of Uncertainty Estimation Approaches in Deep Learning
Components for Autonomous Vehicle Applications [0.0]
自律走行車(AV)の安全性を確保する主要な要因は、望ましくない、予測できない状況下での異常な行動を避けることである。
データやモデルにおける不確実性の定量化のための様々な手法が近年提案されている。
これらの手法では、高い計算負荷、高いメモリフットプリント、余分なレイテンシが要求され、安全クリティカルなアプリケーションでは禁止される。
論文 参考訳(メタデータ) (2020-06-26T18:55:10Z) - Learning Control Barrier Functions from Expert Demonstrations [69.23675822701357]
制御障壁関数(CBF)に基づく安全な制御器合成のための学習に基づくアプローチを提案する。
最適化に基づくCBFの学習手法を解析し、基礎となる力学系のリプシッツ仮定の下で証明可能な安全保証を享受する。
私たちの知る限りでは、これらはデータから確実に安全な制御障壁関数を学習する最初の結果です。
論文 参考訳(メタデータ) (2020-04-07T12:29:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。