論文の概要: Interval Neural Networks: Uncertainty Scores
- arxiv url: http://arxiv.org/abs/2003.11566v1
- Date: Wed, 25 Mar 2020 18:03:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-20 02:41:20.709679
- Title: Interval Neural Networks: Uncertainty Scores
- Title(参考訳): インターバルニューラルネットワーク:不確かさスコア
- Authors: Luis Oala, Cosmas Hei{\ss}, Jan Macdonald, Maximilian M\"arz, Wojciech
Samek and Gitta Kutyniok
- Abstract要約: 我々は、事前訓練された深層ニューラルネットワーク(DNN)の出力における不確実性スコアを生成する高速で非ベイズ的手法を提案する。
このインターバルニューラルネットワーク(INN)は、インターバル値パラメータを持ち、インターバル演算を用いてその入力を伝搬する。
画像再構成タスクの数値実験において,予測誤差の代用としてINNの実用性を実証する。
- 参考スコア(独自算出の注目度): 11.74565957328407
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a fast, non-Bayesian method for producing uncertainty scores in
the output of pre-trained deep neural networks (DNNs) using a data-driven
interval propagating network. This interval neural network (INN) has interval
valued parameters and propagates its input using interval arithmetic. The INN
produces sensible lower and upper bounds encompassing the ground truth. We
provide theoretical justification for the validity of these bounds.
Furthermore, its asymmetric uncertainty scores offer additional, directional
information beyond what Gaussian-based, symmetric variance estimation can
provide. We find that noise in the data is adequately captured by the intervals
produced with our method. In numerical experiments on an image reconstruction
task, we demonstrate the practical utility of INNs as a proxy for the
prediction error in comparison to two state-of-the-art uncertainty
quantification methods. In summary, INNs produce fast, theoretically justified
uncertainty scores for DNNs that are easy to interpret, come with added
information and pose as improved error proxies - features that may prove useful
in advancing the usability of DNNs especially in sensitive applications such as
health care.
- Abstract(参考訳): 本研究では,データ駆動型区間伝搬ネットワークを用いて,事前学習したディープニューラルネットワーク(dnn)の出力における不確実性スコアを生成する高速非ベイズ法を提案する。
このインターバルニューラルネットワーク(inn)は、インターバル値パラメータを持ち、インターバル演算を用いて入力を伝搬する。
INNは、地上の真実を包含する、賢明な下限と上限を生成する。
これらの境界の有効性を理論的に正当化する。
さらに、その不斉不確かさスコアは、ガウスベースの対称分散推定が提供できる以上の追加の方向情報を提供する。
提案手法では,データ中のノイズを,生成した間隔で適切に捉えることができる。
画像再構成タスクにおける数値実験では,2つの最先端不確実性定量化手法と比較して,予測誤差の代用としてINNの実用性を示す。
要約すると、IDNは、解釈が容易で、情報を加え、改善されたエラープロキシとして機能するDNNに対して、高速で理論上正当化された不確実性スコアを生成します。
関連論文リスト
- Scalable Subsampling Inference for Deep Neural Networks [0.0]
完全連結DNN推定器の性能を測定するために,非漸近誤差境界が開発された。
非ランダムなサブサンプリング手法--scalable subsampling-を応用し、サブタグ付きDNN推定器を構築する。
提案された信頼/予測間隔は有限サンプルでうまく機能しているように見える。
論文 参考訳(メタデータ) (2024-05-14T02:11:38Z) - Deep Neural Networks Tend To Extrapolate Predictably [51.303814412294514]
ニューラルネットワークの予測は、アウト・オブ・ディストリビューション(OOD)入力に直面した場合、予測不可能で過信される傾向がある。
我々は、入力データがOODになるにつれて、ニューラルネットワークの予測が一定値に向かう傾向があることを観察する。
我々は、OOD入力の存在下でリスクに敏感な意思決定を可能にするために、私たちの洞察を実際に活用する方法を示します。
論文 参考訳(メタデータ) (2023-10-02T03:25:32Z) - Benign Overfitting in Deep Neural Networks under Lazy Training [72.28294823115502]
データ分布が適切に分離された場合、DNNは分類のためのベイズ最適テスト誤差を達成できることを示す。
よりスムーズな関数との補間により、より一般化できることを示す。
論文 参考訳(メタデータ) (2023-05-30T19:37:44Z) - The #DNN-Verification Problem: Counting Unsafe Inputs for Deep Neural
Networks [94.63547069706459]
#DNN-Verification問題は、DNNの入力構成の数を数えることによって安全性に反する結果となる。
違反の正確な数を返す新しい手法を提案する。
安全クリティカルなベンチマークのセットに関する実験結果を示す。
論文 参考訳(メタデータ) (2023-01-17T18:32:01Z) - Comparative Analysis of Interval Reachability for Robust Implicit and
Feedforward Neural Networks [64.23331120621118]
我々は、暗黙的ニューラルネットワーク(INN)の堅牢性を保証するために、区間到達可能性分析を用いる。
INNは暗黙の方程式をレイヤとして使用する暗黙の学習モデルのクラスである。
提案手法は, INNに最先端の区間境界伝搬法を適用するよりも, 少なくとも, 一般的には, 有効であることを示す。
論文 参考訳(メタデータ) (2022-04-01T03:31:27Z) - Advantage of Deep Neural Networks for Estimating Functions with
Singularity on Hypersurfaces [23.21591478556582]
我々は、ディープニューラルネットワーク(DNN)が他の標準手法よりも優れている理由を説明するために、ミニマックスレート分析を開発する。
本研究では,超曲面上の特異点を持つ非滑らか関数のクラスを推定することにより,このギャップを埋めようとしている。
論文 参考訳(メタデータ) (2020-11-04T12:51:14Z) - PAC Confidence Predictions for Deep Neural Network Classifiers [28.61937254015157]
ディープニューラルネットワーク(DNN)を安全クリティカルな環境でデプロイする上で重要な課題は、その不確実性を定量化する厳密な方法を提供することだ。
証明可能な正当性保証を備えたDNNに対して,予測された分類信頼度を構築するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-11-02T04:09:17Z) - Frequentist Uncertainty in Recurrent Neural Networks via Blockwise
Influence Functions [121.10450359856242]
リカレントニューラルネットワーク(RNN)は、シーケンシャルおよび時系列データのモデリングに有効である。
RNNにおける既存の不確実性定量化のアプローチは、主にベイズ法に基づいている。
a)モデルトレーニングに干渉せず、その精度を損なうことなく、(b)任意のRNNアーキテクチャに適用し、(c)推定不確かさ間隔に関する理論的カバレッジ保証を提供する。
論文 参考訳(メタデータ) (2020-06-20T22:45:32Z) - GraN: An Efficient Gradient-Norm Based Detector for Adversarial and
Misclassified Examples [77.99182201815763]
ディープニューラルネットワーク(DNN)は、敵対的な例やその他のデータ摂動に対して脆弱である。
GraNは、どのDNNにも容易に適応できる時間およびパラメータ効率の手法である。
GraNは多くの問題セットで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2020-04-20T10:09:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。