論文の概要: PI3NN: Prediction intervals from three independently trained neural
networks
- arxiv url: http://arxiv.org/abs/2108.02327v1
- Date: Thu, 5 Aug 2021 00:55:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-06 14:36:36.328200
- Title: PI3NN: Prediction intervals from three independently trained neural
networks
- Title(参考訳): PI3NN:3つの独立訓練ニューラルネットワークからの予測間隔
- Authors: Siyan Liu, Pei Zhang, Dan Lu, Guannan Zhang
- Abstract要約: 本稿では,3つの独立学習ニューラルネットワークから予測平均値,下限,上限の予測区間を学習するための新しい予測区間法を提案する。
本手法では,データに対する分布仮定は必要とせず,ニューラルネットワークモデルや損失関数に異常なハイパーパラメータを導入することはない。
ベンチマーク回帰問題に対する数値実験により,本手法は予測的不確実性,頑健性,分布外サンプルの同定において,最先端の手法よりも優れていることが示された。
- 参考スコア(独自算出の注目度): 4.714371905733244
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a novel prediction interval method to learn prediction mean
values, lower and upper bounds of prediction intervals from three independently
trained neural networks only using the standard mean squared error (MSE) loss,
for uncertainty quantification in regression tasks. Our method requires no
distributional assumption on data, does not introduce unusual hyperparameters
to either the neural network models or the loss function. Moreover, our method
can effectively identify out-of-distribution samples and reasonably quantify
their uncertainty. Numerical experiments on benchmark regression problems show
that our method outperforms the state-of-the-art methods with respect to
predictive uncertainty quality, robustness, and identification of
out-of-distribution samples.
- Abstract(参考訳): 回帰課題における不確実性定量化のために,標準平均二乗誤差(mse)損失のみを用いて,3つの独立学習ニューラルネットワークから予測平均値,下限,上限を学習する新しい予測間隔法を提案する。
本手法では,データに対する分布仮定は必要とせず,ニューラルネットワークモデルや損失関数に異常なハイパーパラメータを導入することはない。
また,本手法は分布外サンプルを効果的に同定し,その不確かさを合理的に定量化することができる。
ベンチマーク回帰問題に対する数値実験により,本手法は予測の不確実性品質,ロバスト性,分布外サンプルの同定において最先端手法よりも優れていることが示された。
関連論文リスト
- Uncertainty Quantification for Deep Learning [0.0]
ディープラーニングのための完全かつ統計的に一貫した不確実性定量化を提供する。
それぞれの不確実性源を体系的に定量化する方法を実証する。
また、すべてのエラーソースを初めて組み込んで組み合わせる、迅速かつ実用的な方法も導入しています。
論文 参考訳(メタデータ) (2024-05-31T00:20:19Z) - A General Framework for Uncertainty Quantification via Neural SDE-RNN [0.3314882635954751]
不確かさの定量化は、ディープラーニングにとって批判的だが未解決の課題である。
本稿では, 再帰型ニューラルネットワークとニューラルディファレンシャル方程式の原理を基礎として, 不規則なサンプル計測を再現する新しい枠組みを提案する。
IEEE 37バステストシステムを用いた実験により,我々のフレームワークは時系列データ計算における最先端の不確実性定量化手法より優れていることがわかった。
論文 参考訳(メタデータ) (2023-06-01T22:59:45Z) - NUQ: Nonparametric Uncertainty Quantification for Deterministic Neural
Networks [151.03112356092575]
本研究では,Nadaraya-Watson の条件付きラベル分布の非パラメトリック推定に基づく分類器の予測の不確かさの測定方法を示す。
種々の実世界の画像データセットにおける不確実性推定タスクにおいて,本手法の強い性能を示す。
論文 参考訳(メタデータ) (2022-02-07T12:30:45Z) - Dense Uncertainty Estimation [62.23555922631451]
本稿では,ニューラルネットワークと不確実性推定手法について検討し,正確な決定論的予測と確実性推定の両方を実現する。
本研究では,アンサンブルに基づく手法と生成モデルに基づく手法の2つの不確実性推定法について検討し,それらの長所と短所を,完全/半端/弱度に制御されたフレームワークを用いて説明する。
論文 参考訳(メタデータ) (2021-10-13T01:23:48Z) - Can a single neuron learn predictive uncertainty? [0.0]
本稿では,一自由度を持つ最も単純なニューラルネットワークアーキテクチャ(単一ニューロン)に基づく,連続確率変数に対する新しい非パラメトリック量子化推定手法を提案する。
実世界の応用では、この手法は分割共形予測設定の下で予測の不確かさの定量化に利用できる。
論文 参考訳(メタデータ) (2021-06-07T15:12:47Z) - Multivariate Deep Evidential Regression [77.34726150561087]
不確実性を認識するニューラルネットワークによる新しいアプローチは、従来の決定論的手法よりも有望である。
本稿では,レグレッションベースニューラルネットワークからアレータ性およびてんかん性不確かさを抽出する手法を提案する。
論文 参考訳(メタデータ) (2021-04-13T12:20:18Z) - Uncertainty Estimation and Calibration with Finite-State Probabilistic
RNNs [29.84563789289183]
不確かさの定量化は、信頼性と信頼性のある機械学習システムを構築するために不可欠である。
本稿では、リカレントニューラルネットワーク(RNN)における離散状態遷移による不確実性の推定を提案する。
モデルの不確実性は、繰り返し状態遷移分布からサンプリングするたびに、予測を数回実行することで定量化することができる。
論文 参考訳(メタデータ) (2020-11-24T10:35:28Z) - The Aleatoric Uncertainty Estimation Using a Separate Formulation with
Virtual Residuals [51.71066839337174]
既存の手法では、ターゲット推定における誤差を定量化できるが、過小評価する傾向がある。
本稿では,信号とその不確かさを推定するための新たな分離可能な定式化を提案し,オーバーフィッティングの影響を回避した。
提案手法は信号および不確実性推定のための最先端技術より優れていることを示す。
論文 参考訳(メタデータ) (2020-11-03T12:11:27Z) - Unlabelled Data Improves Bayesian Uncertainty Calibration under
Covariate Shift [100.52588638477862]
後続正則化に基づく近似ベイズ推定法を開発した。
前立腺癌の予後モデルを世界規模で導入する上で,本手法の有用性を実証する。
論文 参考訳(メタデータ) (2020-06-26T13:50:19Z) - Frequentist Uncertainty in Recurrent Neural Networks via Blockwise
Influence Functions [121.10450359856242]
リカレントニューラルネットワーク(RNN)は、シーケンシャルおよび時系列データのモデリングに有効である。
RNNにおける既存の不確実性定量化のアプローチは、主にベイズ法に基づいている。
a)モデルトレーニングに干渉せず、その精度を損なうことなく、(b)任意のRNNアーキテクチャに適用し、(c)推定不確かさ間隔に関する理論的カバレッジ保証を提供する。
論文 参考訳(メタデータ) (2020-06-20T22:45:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。