論文の概要: Testing Rare Downstream Safety Violations via Upstream Adaptive Sampling
of Perception Error Models
- arxiv url: http://arxiv.org/abs/2209.09674v1
- Date: Tue, 20 Sep 2022 12:26:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-21 19:48:41.149845
- Title: Testing Rare Downstream Safety Violations via Upstream Adaptive Sampling
of Perception Error Models
- Title(参考訳): 知覚誤差モデルの上流適応サンプリングによる希少下流安全違反の検証
- Authors: Craig Innes and Subramanian Ramamoorthy
- Abstract要約: 本稿では,センサベース検出システムにおける知覚誤差モデルと,状態依存適応的重要度サンプリングを組み合わせる。
RGB障害物検出器を備えた自律制動システムを用いた実験により, 精度の高い故障確率を算出できることが判明した。
- 参考スコア(独自算出の注目度): 20.815131169609316
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Testing black-box perceptual-control systems in simulation faces two
difficulties. Firstly, perceptual inputs in simulation lack the fidelity of
real-world sensor inputs. Secondly, for a reasonably accurate perception
system, encountering a rare failure trajectory may require running infeasibly
many simulations. This paper combines perception error models -- surrogates for
a sensor-based detection system -- with state-dependent adaptive importance
sampling. This allows us to efficiently assess the rare failure probabilities
for real-world perceptual control systems within simulation. Our experiments
with an autonomous braking system equipped with an RGB obstacle-detector show
that our method can calculate accurate failure probabilities with an
inexpensive number of simulations. Further, we show how choice of safety metric
can influence the process of learning proposal distributions capable of
reliably sampling high-probability failures.
- Abstract(参考訳): シミュレーションにおけるブラックボックスの知覚制御システムのテストは2つの困難に直面している。
第一に、シミュレーションにおける知覚入力は実世界のセンサー入力の忠実さを欠いている。
第二に、合理的に正確な知覚システムでは、まれな障害軌道に遭遇するには、多くのシミュレーションを実行する必要がある。
本稿では,センサベース検出システムにおける知覚誤差モデルと状態依存適応重要度サンプリングを組み合わせる。
これにより,実世界の知覚制御系におけるまれな故障確率をシミュレーション内で効率的に評価することができる。
rgb障害物検出装置を内蔵した自律制動システムを用いた実験により,本手法は安価にシミュレーションを行い,正確な故障確率を算出できることを示した。
さらに,安全基準の選択が,高確率障害を確実にサンプリングできる提案分布の学習プロセスにどのように影響するかを示す。
関連論文リスト
- How adversarial attacks can disrupt seemingly stable accurate classifiers [76.95145661711514]
敵攻撃は、入力データに不連続な修正を加えることで、非正確な学習システムの出力を劇的に変化させる。
ここでは,これは高次元入力データを扱う分類器の基本的特徴であると考えられる。
実用システムで観測される重要な振る舞いを高い確率で発生させる、単純で汎用的なフレームワークを導入する。
論文 参考訳(メタデータ) (2023-09-07T12:02:00Z) - Bayesian Safety Validation for Failure Probability Estimation of Black-Box Systems [34.61865848439637]
失敗の確率を推定することは、安全クリティカルなシステムの認証において重要なステップである。
この研究は、ベイズ最適化問題としてブラックボックス安全性検証の問題を補足する。
このアルゴリズムは、障害を探索し、最もよく似た障害を計算し、オペレーティングシステム上での障害確率を推定するように設計されている。
論文 参考訳(メタデータ) (2023-05-03T22:22:48Z) - Interactive System-wise Anomaly Detection [66.3766756452743]
異常検出は様々なアプリケーションにおいて基本的な役割を果たす。
既存のメソッドでは、インスタンスがデータとして容易に観察できないシステムであるシナリオを扱うのが難しい。
システム埋め込みを学習するエンコーダデコーダモジュールを含むエンドツーエンドアプローチを開発する。
論文 参考訳(メタデータ) (2023-04-21T02:20:24Z) - Simulation-to-reality UAV Fault Diagnosis with Deep Learning [20.182411473467656]
そこで本研究では,四重項の故障診断におけるシミュレーションと現実のギャップに対処する深層学習モデルを提案する。
提案手法はプロペラ断層の検出において96%の精度を実現する。
これは4段プロペラのシミュレーション・トゥ・リアル故障診断のための信頼性と効率のよい最初の方法である。
論文 参考訳(メタデータ) (2023-02-09T02:37:48Z) - Discovering Closed-Loop Failures of Vision-Based Controllers via Reachability Analysis [7.679478106628509]
機械学習によるイメージベースコントローラは、ロボットシステムが環境からの視覚的フィードバックに基づいてインテリジェントなアクションを取ることを可能にする。
既存の手法では、シミュレーションベースのテスト(またはファルシフィケーション)を利用して、視覚ベースのコントローラの故障を見つける。
本研究では,ハミルトン・ヤコビ(HJ)の到達可能性問題として,閉ループ型視覚障害の発見を論じる。
論文 参考訳(メタデータ) (2022-11-04T20:22:58Z) - Validation of Composite Systems by Discrepancy Propagation [4.588222946914529]
本稿では,複合システムによる分布差度測定の限界を伝搬するバリデーション手法を提案する。
提案手法は, 種々の現実的効果を示す複合システムに対して有効かつ有用な境界を導出することを示す。
論文 参考訳(メタデータ) (2022-10-21T15:51:54Z) - Fast and Accurate Error Simulation for CNNs against Soft Errors [64.54260986994163]
本稿では,誤りシミュレーションエンジンを用いて,コナールニューラルネットワーク(CNN)の信頼性解析のためのフレームワークを提案する。
これらの誤差モデルは、故障によって誘導されるCNN演算子の出力の破損パターンに基づいて定義される。
提案手法は,SASSIFIの欠陥効果の約99%の精度と,限定的なエラーモデルのみを実装した44倍から63倍までのスピードアップを実現する。
論文 参考訳(メタデータ) (2022-06-04T19:45:02Z) - Learning Robust Output Control Barrier Functions from Safe Expert Demonstrations [50.37808220291108]
本稿では,専門家によるデモンストレーションの部分的な観察から,安全な出力フィードバック制御法を考察する。
まず,安全性を保証する手段として,ロバスト出力制御バリア関数(ROCBF)を提案する。
次に、安全なシステム動作を示す専門家による実証からROCBFを学習するための最適化問題を定式化する。
論文 参考訳(メタデータ) (2021-11-18T23:21:00Z) - Generating and Characterizing Scenarios for Safety Testing of Autonomous
Vehicles [86.9067793493874]
最先端運転シミュレータを用いて,テストシナリオを特徴付け,生成するための効率的なメカニズムを提案する。
次世代シミュレーション(NGSIM)プロジェクトにおける実運転データの特徴付けに本手法を用いる。
事故回避の複雑さに基づいてメトリクスを定義してシナリオをランク付けし、事故発生の可能性を最小限に抑えるための洞察を提供します。
論文 参考訳(メタデータ) (2021-03-12T17:00:23Z) - Testing the Safety of Self-driving Vehicles by Simulating Perception and
Prediction [88.0416857308144]
センサシミュレーションは高価であり,領域ギャップが大きいため,センサシミュレーションに代わる方法を提案する。
我々は、自動運転車の知覚と予測システムの出力を直接シミュレートし、現実的な動き計画テストを可能にする。
論文 参考訳(メタデータ) (2020-08-13T17:20:02Z) - DISCO: Double Likelihood-free Inference Stochastic Control [29.84276469617019]
確率自由推論のためのベイズ統計学における現代シミュレータのパワーと最近の技術を活用することを提案する。
シミュレーションパラメータの後方分布は、システムの潜在的非解析モデルによって伝播される。
実験により、制御器の提案により、古典的な制御やロボット工学のタスクにおいて、優れた性能と堅牢性が得られることが示された。
論文 参考訳(メタデータ) (2020-02-18T05:29:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。