論文の概要: Single Shot MC Dropout Approximation
- arxiv url: http://arxiv.org/abs/2007.03293v1
- Date: Tue, 7 Jul 2020 09:17:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-12 18:58:43.630229
- Title: Single Shot MC Dropout Approximation
- Title(参考訳): シングルショットmcドロップアウト近似
- Authors: Kai Brach, Beate Sick, Oliver D\"urr
- Abstract要約: 本稿では,BDNN の利点を DNN よりも遅く抑える一発の MC ドロップアウト近似を提案する。
提案手法は,完全に接続されたネットワークの各層に対して,MCドロップアウト信号の期待値とばらつきを解析的に近似する。
単発MCドロップアウト近似は,予測分布の点推定と不確実性推定に類似していることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks (DNNs) are known for their high prediction performance,
especially in perceptual tasks such as object recognition or autonomous
driving. Still, DNNs are prone to yield unreliable predictions when
encountering completely new situations without indicating their uncertainty.
Bayesian variants of DNNs (BDNNs), such as MC dropout BDNNs, do provide
uncertainty measures. However, BDNNs are slow during test time because they
rely on a sampling approach. Here we present a single shot MC dropout
approximation that preserves the advantages of BDNNs without being slower than
a DNN. Our approach is to analytically approximate for each layer in a fully
connected network the expected value and the variance of the MC dropout signal.
We evaluate our approach on different benchmark datasets and a simulated toy
example. We demonstrate that our single shot MC dropout approximation resembles
the point estimate and the uncertainty estimate of the predictive distribution
that is achieved with an MC approach, while being fast enough for real-time
deployments of BDNNs.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)はその高い予測性能、特に物体認識や自律運転といった知覚的なタスクで知られている。
それでも、DNNは不確実性を示すことなく全く新しい状況に遭遇した場合、信頼できない予測を得る傾向にある。
MCドロップアウトBDNNのようなDNN(BDNN)のベイズ変種は不確実性対策を提供する。
しかしながら、BDNNはサンプリングアプローチに依存するため、テスト期間中は遅い。
ここでは,BDNN の利点を DNN よりも遅く抑える一発の MC ドロップアウト近似を提案する。
本手法は,完全接続ネットワークの各層について,期待値とmcドロップアウト信号のばらつきを解析的に近似するものである。
我々は、異なるベンチマークデータセットとシミュレーションされたおもちゃの例についてアプローチを評価した。
我々の単発MCドロップアウト近似は,BDNNのリアルタイム展開に十分高速でありながら,MCアプローチで達成される予測分布の点推定と不確実性推定に類似していることを示す。
関連論文リスト
- Uncertainty in Graph Neural Networks: A Survey [50.63474656037679]
グラフニューラルネットワーク(GNN)は、様々な現実世界のアプリケーションで広く使われている。
しかし、多様な情報源から生じるGNNの予測的不確実性は、不安定で誤った予測につながる可能性がある。
本調査は,不確実性の観点からGNNの概要を概観することを目的としている。
論文 参考訳(メタデータ) (2024-03-11T21:54:52Z) - Single-shot Bayesian approximation for neural networks [0.0]
ディープニューラルネットワーク(NN)はその高い予測性能で知られている。
NNは不確実性を示すことなく、全く新しい状況に遭遇すると信頼できない予測を下す傾向にある。
単発MCドロップアウト近似は,BNNの利点を保ちながら,NNと同じくらい高速であることを示す。
論文 参考訳(メタデータ) (2023-08-24T13:40:36Z) - An Anomaly Detection Method for Satellites Using Monte Carlo Dropout [7.848121055546167]
衛星テレメトリ時系列における不確実性を把握するために,モンテカルロ(MC)ドロップアウト法に基づくBNNのトラクタブル近似を提案する。
提案した時系列ADアプローチは,予測精度とADの両面から既存手法よりも優れている。
論文 参考訳(メタデータ) (2022-11-27T21:12:26Z) - Comparative Analysis of Interval Reachability for Robust Implicit and
Feedforward Neural Networks [64.23331120621118]
我々は、暗黙的ニューラルネットワーク(INN)の堅牢性を保証するために、区間到達可能性分析を用いる。
INNは暗黙の方程式をレイヤとして使用する暗黙の学習モデルのクラスである。
提案手法は, INNに最先端の区間境界伝搬法を適用するよりも, 少なくとも, 一般的には, 有効であることを示す。
論文 参考訳(メタデータ) (2022-04-01T03:31:27Z) - NUQ: Nonparametric Uncertainty Quantification for Deterministic Neural
Networks [151.03112356092575]
本研究では,Nadaraya-Watson の条件付きラベル分布の非パラメトリック推定に基づく分類器の予測の不確かさの測定方法を示す。
種々の実世界の画像データセットにおける不確実性推定タスクにおいて,本手法の強い性能を示す。
論文 参考訳(メタデータ) (2022-02-07T12:30:45Z) - Neighborhood Spatial Aggregation MC Dropout for Efficient
Uncertainty-aware Semantic Segmentation in Point Clouds [8.98036662506975]
不確実性を考慮した点雲のセマンティックセマンティックセグメンテーションには、予測的不確実性推定と不確実性誘導モデル最適化が含まれる。
広く使われているMCドロップアウトは、複数の前方伝播を用いてサンプルの標準偏差を計算することによって分布を確立する。
MCドロップアウトの変種であるNSA-MCドロップアウトを組み込んだフレームワークが提案され、たった1つのフォワードパスで配布を確立する。
論文 参考訳(メタデータ) (2021-12-05T02:22:32Z) - S2-BNN: Bridging the Gap Between Self-Supervised Real and 1-bit Neural
Networks via Guided Distribution Calibration [74.5509794733707]
本研究では, 実数値から, 最終予測分布上のバイナリネットワークへの誘導型学習パラダイムを提案する。
提案手法は,bnn上で5.515%の絶対利得で,単純なコントラスト学習ベースラインを向上できる。
提案手法は、単純なコントラスト学習ベースラインよりも大幅に改善され、多くの主流教師付きBNN手法に匹敵する。
論文 参考訳(メタデータ) (2021-02-17T18:59:28Z) - Probabilistic Neighbourhood Component Analysis: Sample Efficient
Uncertainty Estimation in Deep Learning [25.8227937350516]
トレーニングデータの量が少ない場合,最先端のBNNとDeep Ensembleモデルの不確実性推定能力は著しく低下することを示す。
サンプル効率の高い非パラメトリックkNN手法の確率的一般化を提案する。
我々のアプローチは、深いkNNがその予測において根底にある不確かさを正確に定量化することを可能にする。
論文 参考訳(メタデータ) (2020-07-18T21:36:31Z) - Unlabelled Data Improves Bayesian Uncertainty Calibration under
Covariate Shift [100.52588638477862]
後続正則化に基づく近似ベイズ推定法を開発した。
前立腺癌の予後モデルを世界規模で導入する上で,本手法の有用性を実証する。
論文 参考訳(メタデータ) (2020-06-26T13:50:19Z) - Frequentist Uncertainty in Recurrent Neural Networks via Blockwise
Influence Functions [121.10450359856242]
リカレントニューラルネットワーク(RNN)は、シーケンシャルおよび時系列データのモデリングに有効である。
RNNにおける既存の不確実性定量化のアプローチは、主にベイズ法に基づいている。
a)モデルトレーニングに干渉せず、その精度を損なうことなく、(b)任意のRNNアーキテクチャに適用し、(c)推定不確かさ間隔に関する理論的カバレッジ保証を提供する。
論文 参考訳(メタデータ) (2020-06-20T22:45:32Z) - Interval Neural Networks: Uncertainty Scores [11.74565957328407]
我々は、事前訓練された深層ニューラルネットワーク(DNN)の出力における不確実性スコアを生成する高速で非ベイズ的手法を提案する。
このインターバルニューラルネットワーク(INN)は、インターバル値パラメータを持ち、インターバル演算を用いてその入力を伝搬する。
画像再構成タスクの数値実験において,予測誤差の代用としてINNの実用性を実証する。
論文 参考訳(メタデータ) (2020-03-25T18:03:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。