論文の概要: Testing Rare Downstream Safety Violations via Upstream Adaptive Sampling
of Perception Error Models
- arxiv url: http://arxiv.org/abs/2209.09674v1
- Date: Tue, 20 Sep 2022 12:26:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-21 19:48:41.149845
- Title: Testing Rare Downstream Safety Violations via Upstream Adaptive Sampling
of Perception Error Models
- Title(参考訳): 知覚誤差モデルの上流適応サンプリングによる希少下流安全違反の検証
- Authors: Craig Innes and Subramanian Ramamoorthy
- Abstract要約: 本稿では,センサベース検出システムにおける知覚誤差モデルと,状態依存適応的重要度サンプリングを組み合わせる。
RGB障害物検出器を備えた自律制動システムを用いた実験により, 精度の高い故障確率を算出できることが判明した。
- 参考スコア(独自算出の注目度): 20.815131169609316
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Testing black-box perceptual-control systems in simulation faces two
difficulties. Firstly, perceptual inputs in simulation lack the fidelity of
real-world sensor inputs. Secondly, for a reasonably accurate perception
system, encountering a rare failure trajectory may require running infeasibly
many simulations. This paper combines perception error models -- surrogates for
a sensor-based detection system -- with state-dependent adaptive importance
sampling. This allows us to efficiently assess the rare failure probabilities
for real-world perceptual control systems within simulation. Our experiments
with an autonomous braking system equipped with an RGB obstacle-detector show
that our method can calculate accurate failure probabilities with an
inexpensive number of simulations. Further, we show how choice of safety metric
can influence the process of learning proposal distributions capable of
reliably sampling high-probability failures.
- Abstract(参考訳): シミュレーションにおけるブラックボックスの知覚制御システムのテストは2つの困難に直面している。
第一に、シミュレーションにおける知覚入力は実世界のセンサー入力の忠実さを欠いている。
第二に、合理的に正確な知覚システムでは、まれな障害軌道に遭遇するには、多くのシミュレーションを実行する必要がある。
本稿では,センサベース検出システムにおける知覚誤差モデルと状態依存適応重要度サンプリングを組み合わせる。
これにより,実世界の知覚制御系におけるまれな故障確率をシミュレーション内で効率的に評価することができる。
rgb障害物検出装置を内蔵した自律制動システムを用いた実験により,本手法は安価にシミュレーションを行い,正確な故障確率を算出できることを示した。
さらに,安全基準の選択が,高確率障害を確実にサンプリングできる提案分布の学習プロセスにどのように影響するかを示す。
関連論文リスト
- How adversarial attacks can disrupt seemingly stable accurate
classifiers [80.2657717174889]
敵攻撃は、入力データに不連続な修正を加えることで、非正確な学習システムの出力を劇的に変化させる。
ここでは,これは高次元入力データを扱う分類器の基本的特徴であると考えられる。
実用システムで観測される重要な振る舞いを高い確率で発生させる、単純で汎用的なフレームワークを導入する。
論文 参考訳(メタデータ) (2023-09-07T12:02:00Z) - Bayesian Safety Validation for Black-Box Systems [30.88972029876969]
本稿では,確率的サロゲートモデルに反復的に適合して障害を効率的に予測するアルゴリズム,ベイズ安全検証を導入する。
このアルゴリズムは、障害を探索し、最もよく似た障害を計算し、重要サンプリングを用いてオペレーティングシステム上の障害確率を推定するように設計されている。
この作業はオープンソースで、現在、自律貨物機のための機械学習コンポーネントのFAA認定プロセスを補完するために使用されている。
論文 参考訳(メタデータ) (2023-05-03T22:22:48Z) - Interactive System-wise Anomaly Detection [66.3766756452743]
異常検出は様々なアプリケーションにおいて基本的な役割を果たす。
既存のメソッドでは、インスタンスがデータとして容易に観察できないシステムであるシナリオを扱うのが難しい。
システム埋め込みを学習するエンコーダデコーダモジュールを含むエンドツーエンドアプローチを開発する。
論文 参考訳(メタデータ) (2023-04-21T02:20:24Z) - Simulation-to-reality UAV Fault Diagnosis with Deep Learning [20.182411473467656]
そこで本研究では,四重項の故障診断におけるシミュレーションと現実のギャップに対処する深層学習モデルを提案する。
提案手法はプロペラ断層の検出において96%の精度を実現する。
これは4段プロペラのシミュレーション・トゥ・リアル故障診断のための信頼性と効率のよい最初の方法である。
論文 参考訳(メタデータ) (2023-02-09T02:37:48Z) - Discovering Closed-Loop Failures of Vision-Based Controllers via
Reachability Analysis [4.523089386111081]
機械学習によるイメージベースコントローラは、ロボットシステムが環境からの視覚的フィードバックに基づいてインテリジェントなアクションを取ることを可能にする。
既存の手法では、シミュレーションベースのテスト(またはファルシフィケーション)を利用して、視覚ベースのコントローラの故障を見つける。
本研究では,ハミルトン・ヤコビ(HJ)の到達可能性問題として,閉ループ型視覚障害の発見を論じる。
論文 参考訳(メタデータ) (2022-11-04T20:22:58Z) - Validation of Composite Systems by Discrepancy Propagation [4.588222946914529]
本稿では,複合システムによる分布差度測定の限界を伝搬するバリデーション手法を提案する。
提案手法は, 種々の現実的効果を示す複合システムに対して有効かつ有用な境界を導出することを示す。
論文 参考訳(メタデータ) (2022-10-21T15:51:54Z) - Recursively Feasible Probabilistic Safe Online Learning with Control
Barrier Functions [63.18590014127461]
本稿では,CBFをベースとした安全クリティカルコントローラのモデル不確実性を考慮した再構成を提案する。
本研究では,ロバストな安全クリティカルコントローラの実現可能性について検討する。
次に、これらの条件を使って、イベントトリガーによるオンラインデータ収集戦略を考案します。
論文 参考訳(メタデータ) (2022-08-23T05:02:09Z) - Fast and Accurate Error Simulation for CNNs against Soft Errors [64.54260986994163]
本稿では,誤りシミュレーションエンジンを用いて,コナールニューラルネットワーク(CNN)の信頼性解析のためのフレームワークを提案する。
これらの誤差モデルは、故障によって誘導されるCNN演算子の出力の破損パターンに基づいて定義される。
提案手法は,SASSIFIの欠陥効果の約99%の精度と,限定的なエラーモデルのみを実装した44倍から63倍までのスピードアップを実現する。
論文 参考訳(メタデータ) (2022-06-04T19:45:02Z) - Generating and Characterizing Scenarios for Safety Testing of Autonomous
Vehicles [86.9067793493874]
最先端運転シミュレータを用いて,テストシナリオを特徴付け,生成するための効率的なメカニズムを提案する。
次世代シミュレーション(NGSIM)プロジェクトにおける実運転データの特徴付けに本手法を用いる。
事故回避の複雑さに基づいてメトリクスを定義してシナリオをランク付けし、事故発生の可能性を最小限に抑えるための洞察を提供します。
論文 参考訳(メタデータ) (2021-03-12T17:00:23Z) - Testing the Safety of Self-driving Vehicles by Simulating Perception and
Prediction [88.0416857308144]
センサシミュレーションは高価であり,領域ギャップが大きいため,センサシミュレーションに代わる方法を提案する。
我々は、自動運転車の知覚と予測システムの出力を直接シミュレートし、現実的な動き計画テストを可能にする。
論文 参考訳(メタデータ) (2020-08-13T17:20:02Z) - DISCO: Double Likelihood-free Inference Stochastic Control [29.84276469617019]
確率自由推論のためのベイズ統計学における現代シミュレータのパワーと最近の技術を活用することを提案する。
シミュレーションパラメータの後方分布は、システムの潜在的非解析モデルによって伝播される。
実験により、制御器の提案により、古典的な制御やロボット工学のタスクにおいて、優れた性能と堅牢性が得られることが示された。
論文 参考訳(メタデータ) (2020-02-18T05:29:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。