論文の概要: Interval Deep Learning for Uncertainty Quantification in Safety
Applications
- arxiv url: http://arxiv.org/abs/2105.06438v1
- Date: Thu, 13 May 2021 17:21:33 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-14 13:43:31.971157
- Title: Interval Deep Learning for Uncertainty Quantification in Safety
Applications
- Title(参考訳): 不確実性定量化のためのインターバル深層学習
- Authors: David Betancourt and Rafi Muhanna
- Abstract要約: 現在のディープニューラルネットワーク(DNN)は、重要な入力データの不確実性を定量化し伝播する暗黙のメカニズムを持っていない。
本稿では、間隔解析を用いて入力とパラメータの不確かさを定量化できる勾配法を最適化したDNNを提案する。
本研究では,Deep Interval Neural Network (DINN) が不確定な入力データから正確な有界推定を生成できることを示した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Deep neural networks (DNNs) are becoming more prevalent in important
safety-critical applications, where reliability in the prediction is paramount.
Despite their exceptional prediction capabilities, current DNNs do not have an
implicit mechanism to quantify and propagate significant input data uncertainty
-- which is common in safety-critical applications. In many cases, this
uncertainty is epistemic and can arise from multiple sources, such as lack of
knowledge about the data generating process, imprecision, ignorance, and poor
understanding of physics phenomena. Recent approaches have focused on
quantifying parameter uncertainty, but approaches to end-to-end training of
DNNs with epistemic input data uncertainty are more limited and largely
problem-specific. In this work, we present a DNN optimized with gradient-based
methods capable to quantify input and parameter uncertainty by means of
interval analysis, which we call Deep Interval Neural Network (DINN). We
perform experiments on an air pollution dataset with sensor uncertainty and
show that the DINN can produce accurate bounded estimates from uncertain input
data.
- Abstract(参考訳): 深層ニューラルネットワーク(DNN)は、予測の信頼性が最重要である重要な安全クリティカルなアプリケーションにおいて、より普及しつつある。
例外的な予測機能にもかかわらず、現在のDNNは、重要な入力データの不確実性を定量化し、伝播する暗黙のメカニズムを持っていません。
多くの場合、この不確実性は疫学であり、データ生成過程に関する知識の欠如、不正確さ、無知、物理現象の理解不足など、複数の情報源から生じる可能性がある。
近年、パラメータの不確かさの定量化に焦点が当てられているが、認識的入力データ不確実性を伴うDNNのエンドツーエンドトレーニングへのアプローチは、より限定的で、主に問題固有である。
本研究では,入力とパラメータの不確かさを区間解析によって定量化できる勾配に基づく手法を最適化したdnnを提案する。
センサの不確実性のある大気汚染データセットの実験を行い、不確実な入力データからDINNが正確な有界推定を行うことを示す。
関連論文リスト
- Uncertainty Calibration with Energy Based Instance-wise Scaling in the Wild Dataset [23.155946032377052]
エネルギーモデルに基づく新しいインスタンスワイドキャリブレーション手法を提案する。
本手法は,ソフトマックス信頼性スコアの代わりにエネルギースコアを組み込むことにより,不確実性を考慮した適応的な検討を可能にする。
実験では,提案手法はスペクトル間のロバストな性能を一貫して維持することを示した。
論文 参考訳(メタデータ) (2024-07-17T06:14:55Z) - Uncertainty Quantification for Forward and Inverse Problems of PDEs via
Latent Global Evolution [110.99891169486366]
本稿では,効率的かつ高精度な不確実性定量化を深層学習に基づく代理モデルに統合する手法を提案する。
本手法は,フォワード問題と逆問題の両方に対して,堅牢かつ効率的な不確実性定量化機能を備えたディープラーニングに基づく代理モデルを提案する。
提案手法は, 長期予測を含むシナリオに適合し, 拡張された自己回帰ロールアウトに対する不確かさの伝播に優れる。
論文 参考訳(メタデータ) (2024-02-13T11:22:59Z) - One step closer to unbiased aleatoric uncertainty estimation [71.55174353766289]
そこで本研究では,観測データのアクティブデノイズ化による新しい推定手法を提案する。
幅広い実験を行うことで,提案手法が標準手法よりも実際のデータ不確実性にはるかに近い近似を与えることを示す。
論文 参考訳(メタデータ) (2023-12-16T14:59:11Z) - Uncertainty in Natural Language Processing: Sources, Quantification, and
Applications [56.130945359053776]
NLP分野における不確実性関連作業の総合的なレビューを行う。
まず、自然言語の不確実性の原因を、入力、システム、出力の3つのタイプに分類する。
我々は,NLPにおける不確実性推定の課題について論じ,今後の方向性について論じる。
論文 参考訳(メタデータ) (2023-06-05T06:46:53Z) - The #DNN-Verification Problem: Counting Unsafe Inputs for Deep Neural
Networks [94.63547069706459]
#DNN-Verification問題は、DNNの入力構成の数を数えることによって安全性に反する結果となる。
違反の正確な数を返す新しい手法を提案する。
安全クリティカルなベンチマークのセットに関する実験結果を示す。
論文 参考訳(メタデータ) (2023-01-17T18:32:01Z) - The Unreasonable Effectiveness of Deep Evidential Regression [72.30888739450343]
不確実性を考慮した回帰ベースニューラルネットワーク(NN)による新しいアプローチは、従来の決定論的手法や典型的なベイズ的NNよりも有望であることを示している。
我々は、理論的欠点を詳述し、合成および実世界のデータセットのパフォーマンスを分析し、Deep Evidential Regressionが正確な不確実性ではなく定量化であることを示す。
論文 参考訳(メタデータ) (2022-05-20T10:10:32Z) - Fail-Safe Execution of Deep Learning based Systems through Uncertainty
Monitoring [4.56877715768796]
フェールセーフなディープラーニングベースシステム(DLS)は、スーパーバイザーによってDNNの障害を処理する。
本稿では,DNNの不確実性推定器を用いて,そのようなスーパーバイザを実装する手法を提案する。
通常のtf.keras DNNに対する不確かさを透過的に推定できるツールUNCERTAINTY-WIZARDについて述べる。
論文 参考訳(メタデータ) (2021-02-01T15:22:54Z) - Probabilistic Neighbourhood Component Analysis: Sample Efficient
Uncertainty Estimation in Deep Learning [25.8227937350516]
トレーニングデータの量が少ない場合,最先端のBNNとDeep Ensembleモデルの不確実性推定能力は著しく低下することを示す。
サンプル効率の高い非パラメトリックkNN手法の確率的一般化を提案する。
我々のアプローチは、深いkNNがその予測において根底にある不確かさを正確に定量化することを可能にする。
論文 参考訳(メタデータ) (2020-07-18T21:36:31Z) - A Comparison of Uncertainty Estimation Approaches in Deep Learning
Components for Autonomous Vehicle Applications [0.0]
自律走行車(AV)の安全性を確保する主要な要因は、望ましくない、予測できない状況下での異常な行動を避けることである。
データやモデルにおける不確実性の定量化のための様々な手法が近年提案されている。
これらの手法では、高い計算負荷、高いメモリフットプリント、余分なレイテンシが要求され、安全クリティカルなアプリケーションでは禁止される。
論文 参考訳(メタデータ) (2020-06-26T18:55:10Z) - Frequentist Uncertainty in Recurrent Neural Networks via Blockwise
Influence Functions [121.10450359856242]
リカレントニューラルネットワーク(RNN)は、シーケンシャルおよび時系列データのモデリングに有効である。
RNNにおける既存の不確実性定量化のアプローチは、主にベイズ法に基づいている。
a)モデルトレーニングに干渉せず、その精度を損なうことなく、(b)任意のRNNアーキテクチャに適用し、(c)推定不確かさ間隔に関する理論的カバレッジ保証を提供する。
論文 参考訳(メタデータ) (2020-06-20T22:45:32Z) - Interval Neural Networks: Uncertainty Scores [11.74565957328407]
我々は、事前訓練された深層ニューラルネットワーク(DNN)の出力における不確実性スコアを生成する高速で非ベイズ的手法を提案する。
このインターバルニューラルネットワーク(INN)は、インターバル値パラメータを持ち、インターバル演算を用いてその入力を伝搬する。
画像再構成タスクの数値実験において,予測誤差の代用としてINNの実用性を実証する。
論文 参考訳(メタデータ) (2020-03-25T18:03:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。