論文の概要: Deep Probabilistic Accelerated Evaluation: A Robust Certifiable
Rare-Event Simulation Methodology for Black-Box Safety-Critical Systems
- arxiv url: http://arxiv.org/abs/2006.15722v4
- Date: Mon, 8 Mar 2021 18:50:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-16 02:15:19.964530
- Title: Deep Probabilistic Accelerated Evaluation: A Robust Certifiable
Rare-Event Simulation Methodology for Black-Box Safety-Critical Systems
- Title(参考訳): 深部確率的加速評価:ブラックボックス安全臨界系のロバスト認証希土類イベントシミュレーション手法
- Authors: Mansur Arief, Zhiyuan Huang, Guru Koushik Senthil Kumar, Yuanlu Bai,
Shengyi He, Wenhao Ding, Henry Lam, Ding Zhao
- Abstract要約: 統計的に保証されたImportance Smpling(IS)を設計するためのDeep Probabilistic Accelerated Evaluation(Deep-PrAE)というフレームワークを提案する。
Deep-PrAEは、万能だが保証を欠く可能性のあるブラックボックスのサンプルを、安全クリティカルな事象確率の正確な予測を可能にする緩和された効率証明書に変換する。
本稿では、支配点概念と深層ニューラルネットワーク分類器による希少集合学習を組み合わせたDeep-PrAEの理論を提案し、その効果を数値的な例で示す。
- 参考スコア(独自算出の注目度): 19.762759466546555
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Evaluating the reliability of intelligent physical systems against rare
safety-critical events poses a huge testing burden for real-world applications.
Simulation provides a useful platform to evaluate the extremal risks of these
systems before their deployments. Importance Sampling (IS), while proven to be
powerful for rare-event simulation, faces challenges in handling these
learning-based systems due to their black-box nature that fundamentally
undermines its efficiency guarantee, which can lead to under-estimation without
diagnostically detected. We propose a framework called Deep Probabilistic
Accelerated Evaluation (Deep-PrAE) to design statistically guaranteed IS, by
converting black-box samplers that are versatile but could lack guarantees,
into one with what we call a relaxed efficiency certificate that allows
accurate estimation of bounds on the safety-critical event probability. We
present the theory of Deep-PrAE that combines the dominating point concept with
rare-event set learning via deep neural network classifiers, and demonstrate
its effectiveness in numerical examples including the safety-testing of an
intelligent driving algorithm.
- Abstract(参考訳): 知的物理システムの信頼性を評価することは、現実のアプリケーションにとって、稀な安全クリティカルなイベントに対するテストの負担が大きい。
シミュレーションは、デプロイ前にこれらのシステムの極端なリスクを評価するための有用なプラットフォームを提供する。
重要サンプリング(Importance Smpling、IS)は、希少なシミュレーションでは強力であることが証明されているが、ブラックボックスの性質が効率の保証を根本的に損なうため、これらの学習ベースのシステムを扱う際の課題に直面している。
我々は,多目的で保証が得られないブラックボックスサンプリングを,安全クリティカル事象確率のバウンダリを正確に推定できる緩和された効率証明書に変換することで,統計的に保証されたISを設計するためのDeep Probabilistic Accelerated Evaluation(Deep-PrAE)というフレームワークを提案する。
本稿では、支配点概念と深層ニューラルネットワーク分類器による希少集合学習を組み合わせたDeep-PrAEの理論を提案し、インテリジェントな駆動アルゴリズムの安全性テストを含む数値例でその効果を実証する。
関連論文リスト
- Enumerating Safe Regions in Deep Neural Networks with Provable
Probabilistic Guarantees [86.1362094580439]
安全プロパティとDNNが与えられた場合、安全であるプロパティ入力領域のすべての領域の集合を列挙する。
この問題の #P-hardness のため,epsilon-ProVe と呼ばれる効率的な近似法を提案する。
提案手法は, 許容限界の統計的予測により得られた出力可到達集合の制御可能な過小評価を利用する。
論文 参考訳(メタデータ) (2023-08-18T22:30:35Z) - Bayesian Safety Validation for Failure Probability Estimation of Black-Box Systems [34.61865848439637]
失敗の確率を推定することは、安全クリティカルなシステムの認証において重要なステップである。
この研究は、ベイズ最適化問題としてブラックボックス安全性検証の問題を補足する。
このアルゴリズムは、障害を探索し、最もよく似た障害を計算し、オペレーティングシステム上での障害確率を推定するように設計されている。
論文 参考訳(メタデータ) (2023-05-03T22:22:48Z) - Recursively Feasible Probabilistic Safe Online Learning with Control Barrier Functions [60.26921219698514]
CBFをベースとした安全クリティカルコントローラのモデル不確実性を考慮した再構成を提案する。
次に、結果の安全制御器のポイントワイズ実現可能性条件を示す。
これらの条件を利用して、イベントトリガーによるオンラインデータ収集戦略を考案する。
論文 参考訳(メタデータ) (2022-08-23T05:02:09Z) - The Unreasonable Effectiveness of Deep Evidential Regression [72.30888739450343]
不確実性を考慮した回帰ベースニューラルネットワーク(NN)による新しいアプローチは、従来の決定論的手法や典型的なベイズ的NNよりも有望であることを示している。
我々は、理論的欠点を詳述し、合成および実世界のデータセットのパフォーマンスを分析し、Deep Evidential Regressionが正確な不確実性ではなく定量化であることを示す。
論文 参考訳(メタデータ) (2022-05-20T10:10:32Z) - Certifiable Deep Importance Sampling for Rare-Event Simulation of
Black-Box Systems [21.08822478107839]
ブラックボックス問題は効率の保証を損なう可能性があり、危険な過小評価につながる。
統計的に保証されたISを設計するためのDeep Probabilistic Accelerated Evaluation (Deep-PrAE) というフレームワークを提案する。
本稿では、支配点の概念と深層ニューラルネットワーク分類器による希少集合学習を組み合わせたDeep-PrAEの理論を提案する。
論文 参考訳(メタデータ) (2021-11-03T13:19:05Z) - Probabilistic robust linear quadratic regulators with Gaussian processes [73.0364959221845]
ガウス過程(GP)のような確率モデルは、制御設計に続く使用のためのデータから未知の動的システムを学ぶための強力なツールです。
本稿では、確率的安定性マージンに関して堅牢なコントローラを生成する線形化GPダイナミクスのための新しいコントローラ合成について述べる。
論文 参考訳(メタデータ) (2021-05-17T08:36:18Z) - Increasing the Confidence of Deep Neural Networks by Coverage Analysis [71.57324258813674]
本稿では、異なる安全でない入力に対してモデルを強化するために、カバレッジパラダイムに基づく軽量な監視アーキテクチャを提案する。
実験結果から,提案手法は強力な対向例とアウト・オブ・ディストリビューション・インプットの両方を検出するのに有効であることが示唆された。
論文 参考訳(メタデータ) (2021-01-28T16:38:26Z) - Multimodal Safety-Critical Scenarios Generation for Decision-Making
Algorithms Evaluation [23.43175124406634]
既存のニューラルネットワークベースの自律システムは、敵の攻撃に対して脆弱であることが示されている。
意思決定アルゴリズムの評価のためのフローベースマルチモーダル安全クリティカルシナリオジェネレータを提案する。
生成したトラフィックシナリオを用いて6つの強化学習アルゴリズムを評価し,その堅牢性に関する実証的な結論を提供する。
論文 参考訳(メタデータ) (2020-09-16T15:16:43Z) - Neural Bridge Sampling for Evaluating Safety-Critical Autonomous Systems [34.945482759378734]
シミュレーションの安全性評価には確率論的アプローチを用いており、危険事象の確率を計算することに関心がある。
探索, 利用, 最適化技術を組み合わせて, 故障モードを見つけ, 発生率を推定する新しいレアイベントシミュレーション手法を開発した。
論文 参考訳(メタデータ) (2020-08-24T17:46:27Z) - SAMBA: Safe Model-Based & Active Reinforcement Learning [59.01424351231993]
SAMBAは、確率論的モデリング、情報理論、統計学といった側面を組み合わせた安全な強化学習のためのフレームワークである。
我々は,低次元および高次元の状態表現を含む安全な力学系ベンチマークを用いて,アルゴリズムの評価を行った。
アクティブなメトリクスと安全性の制約を詳細に分析することで,フレームワークの有効性を直感的に評価する。
論文 参考訳(メタデータ) (2020-06-12T10:40:46Z) - Efficient statistical validation with edge cases to evaluate Highly
Automated Vehicles [6.198523595657983]
自動運転車の大規模展開は、まだ解決されていない多くの安全上の課題にもかかわらず、差し迫っているようだ。
既存の標準は、検証が要求をカバーするテストケースのセットだけを必要とする決定論的プロセスに焦点を当てています。
本稿では, 自動生成テストケースを最悪のシナリオに偏り付け, システムの挙動の統計的特性を計算するための新しい手法を提案する。
論文 参考訳(メタデータ) (2020-03-04T04:35:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。