論文の概要: Certifiable Deep Importance Sampling for Rare-Event Simulation of
Black-Box Systems
- arxiv url: http://arxiv.org/abs/2111.02204v1
- Date: Wed, 3 Nov 2021 13:19:05 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-04 13:39:34.562201
- Title: Certifiable Deep Importance Sampling for Rare-Event Simulation of
Black-Box Systems
- Title(参考訳): ブラックボックスシステムの希少事象シミュレーションのための認証深度サンプリング
- Authors: Mansur Arief, Yuanlu Bai, Wenhao Ding, Shengyi He, Zhiyuan Huang,
Henry Lam, Ding Zhao
- Abstract要約: ブラックボックス問題は効率の保証を損なう可能性があり、危険な過小評価につながる。
統計的に保証されたISを設計するためのDeep Probabilistic Accelerated Evaluation (Deep-PrAE) というフレームワークを提案する。
本稿では、支配点の概念と深層ニューラルネットワーク分類器による希少集合学習を組み合わせたDeep-PrAEの理論を提案する。
- 参考スコア(独自算出の注目度): 21.08822478107839
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Rare-event simulation techniques, such as importance sampling (IS),
constitute powerful tools to speed up challenging estimation of rare
catastrophic events. These techniques often leverage the knowledge and analysis
on underlying system structures to endow desirable efficiency guarantees.
However, black-box problems, especially those arising from recent
safety-critical applications of AI-driven physical systems, can fundamentally
undermine their efficiency guarantees and lead to dangerous under-estimation
without diagnostically detected. We propose a framework called Deep
Probabilistic Accelerated Evaluation (Deep-PrAE) to design statistically
guaranteed IS, by converting black-box samplers that are versatile but could
lack guarantees, into one with what we call a relaxed efficiency certificate
that allows accurate estimation of bounds on the rare-event probability. We
present the theory of Deep-PrAE that combines the dominating point concept with
rare-event set learning via deep neural network classifiers, and demonstrate
its effectiveness in numerical examples including the safety-testing of
intelligent driving algorithms.
- Abstract(参考訳): 重要サンプリング(is)のような希少事象シミュレーション技術は、稀な破滅的な事象の困難な推定を高速化する強力なツールである。
これらの技術は、しばしばシステム構造に関する知識と分析を利用して、望ましい効率を保証する。
しかし、ブラックボックス問題、特に最近のAI駆動物理システムの安全クリティカルな応用から生じる問題は、その効率の保証を根本的に損なう可能性があり、診断的に検出されることなく危険な過小評価につながる。
我々は、多目的で保証が得られないブラックボックスサンプリングを、希少な確率のバウンダリを正確に推定できる緩和された効率証明と呼ぶものに変換することで、統計的に保証されたISを設計するためのDeep Probabilistic Accelerated Evaluation(Deep-PrAE)と呼ばれるフレームワークを提案する。
本稿では、支配点の概念と深層ニューラルネットワーク分類器による希少集合学習を組み合わせたDeep-PrAEの理論を提案し、インテリジェントな駆動アルゴリズムの安全性テストを含む数値例でその効果を実証する。
関連論文リスト
- Towards Certified Unlearning for Deep Neural Networks [50.816473152067104]
認定されていない未学習は、凸機械学習モデルで広く研究されている。
認定アンラーニングとディープニューラルネットワーク(DNN)のギャップを埋める手法をいくつか提案する。
論文 参考訳(メタデータ) (2024-08-01T21:22:10Z) - Efficiently Computable Safety Bounds for Gaussian Processes in Active Learning [6.217857116096573]
多くの技術応用において、設計空間は連続的な軌跡を通して探索され、その上で安全性を評価する必要がある。
これはGP法における厳格な安全性要件に対して特に困難である。
本稿では,後GPの上限値の適応的なサンプル化中央値に基づいて,証明可能な安全性境界を提供することにより,これらの課題に対処する。
論文 参考訳(メタデータ) (2024-02-28T11:47:15Z) - Distributionally Robust Statistical Verification with Imprecise Neural
Networks [4.094049541486327]
AI安全性における特に困難な問題は、高次元自律システムの振る舞いを保証することだ。
本稿では,アクティブラーニング,不確実性定量化,ニューラルネットワーク検証を組み合わせた新しい手法を提案する。
論文 参考訳(メタデータ) (2023-08-28T18:06:24Z) - Bayesian Safety Validation for Failure Probability Estimation of Black-Box Systems [34.61865848439637]
失敗の確率を推定することは、安全クリティカルなシステムの認証において重要なステップである。
この研究は、ベイズ最適化問題としてブラックボックス安全性検証の問題を補足する。
このアルゴリズムは、障害を探索し、最もよく似た障害を計算し、オペレーティングシステム上での障害確率を推定するように設計されている。
論文 参考訳(メタデータ) (2023-05-03T22:22:48Z) - Quantization-aware Interval Bound Propagation for Training Certifiably
Robust Quantized Neural Networks [58.195261590442406]
我々は、逆向きに頑健な量子化ニューラルネットワーク(QNN)の訓練と証明の課題について検討する。
近年の研究では、浮動小数点ニューラルネットワークが量子化後の敵攻撃に対して脆弱であることが示されている。
本稿では、堅牢なQNNをトレーニングするための新しい方法であるQA-IBP(quantization-aware interval bound propagation)を提案する。
論文 参考訳(メタデータ) (2022-11-29T13:32:38Z) - Recursively Feasible Probabilistic Safe Online Learning with Control Barrier Functions [60.26921219698514]
CBFをベースとした安全クリティカルコントローラのモデル不確実性を考慮した再構成を提案する。
次に、結果の安全制御器のポイントワイズ実現可能性条件を示す。
これらの条件を利用して、イベントトリガーによるオンラインデータ収集戦略を考案する。
論文 参考訳(メタデータ) (2022-08-23T05:02:09Z) - The Unreasonable Effectiveness of Deep Evidential Regression [72.30888739450343]
不確実性を考慮した回帰ベースニューラルネットワーク(NN)による新しいアプローチは、従来の決定論的手法や典型的なベイズ的NNよりも有望であることを示している。
我々は、理論的欠点を詳述し、合成および実世界のデータセットのパフォーマンスを分析し、Deep Evidential Regressionが正確な不確実性ではなく定量化であることを示す。
論文 参考訳(メタデータ) (2022-05-20T10:10:32Z) - Increasing the Confidence of Deep Neural Networks by Coverage Analysis [71.57324258813674]
本稿では、異なる安全でない入力に対してモデルを強化するために、カバレッジパラダイムに基づく軽量な監視アーキテクチャを提案する。
実験結果から,提案手法は強力な対向例とアウト・オブ・ディストリビューション・インプットの両方を検出するのに有効であることが示唆された。
論文 参考訳(メタデータ) (2021-01-28T16:38:26Z) - Data-Driven Assessment of Deep Neural Networks with Random Input
Uncertainty [14.191310794366075]
我々は,ネットワーク出力の安全性を同時に証明し,ローカライズ可能なデータ駆動最適化手法を開発した。
深部ReLUネットワークにおける提案手法の有効性とトラクタビリティを実験的に実証した。
論文 参考訳(メタデータ) (2020-10-02T19:13:35Z) - Bayesian Optimization with Machine Learning Algorithms Towards Anomaly
Detection [66.05992706105224]
本稿では,ベイズ最適化手法を用いた効果的な異常検出フレームワークを提案する。
ISCX 2012データセットを用いて検討したアルゴリズムの性能を評価する。
実験結果から, 精度, 精度, 低コストアラームレート, リコールの観点から, 提案手法の有効性が示された。
論文 参考訳(メタデータ) (2020-08-05T19:29:35Z) - Deep Probabilistic Accelerated Evaluation: A Robust Certifiable
Rare-Event Simulation Methodology for Black-Box Safety-Critical Systems [19.762759466546555]
統計的に保証されたImportance Smpling(IS)を設計するためのDeep Probabilistic Accelerated Evaluation(Deep-PrAE)というフレームワークを提案する。
Deep-PrAEは、万能だが保証を欠く可能性のあるブラックボックスのサンプルを、安全クリティカルな事象確率の正確な予測を可能にする緩和された効率証明書に変換する。
本稿では、支配点概念と深層ニューラルネットワーク分類器による希少集合学習を組み合わせたDeep-PrAEの理論を提案し、その効果を数値的な例で示す。
論文 参考訳(メタデータ) (2020-06-28T21:38:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。