論文の概要: Rapid Risk Minimization with Bayesian Models Through Deep Learning
Approximation
- arxiv url: http://arxiv.org/abs/2103.15682v1
- Date: Mon, 29 Mar 2021 15:08:25 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-30 15:24:19.624065
- Title: Rapid Risk Minimization with Bayesian Models Through Deep Learning
Approximation
- Title(参考訳): ディープラーニング近似によるベイズモデルによる迅速リスク最小化
- Authors: Mathias L\"owe, Jes Frellsen, Per Lunnemann Hansen, Sebastian Risi
- Abstract要約: 本稿では,ベイズモデル (BM) とニューラルネットワーク (NN) を組み合わせて,予測を最小限のリスクで行う手法を提案する。
私たちのアプローチは、BMのデータ効率と解釈可能性とNNの速度を組み合わせます。
テストデータセットに無視できる損失がある標準手法よりも、リスク最小限の予測をはるかに高速に達成する。
- 参考スコア(独自算出の注目度): 9.93116974480156
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we introduce a novel combination of Bayesian Models (BMs) and
Neural Networks (NNs) for making predictions with a minimum expected risk. Our
approach combines the best of both worlds, the data efficiency and
interpretability of a BM with the speed of a NN. For a BM, making predictions
with the lowest expected loss requires integrating over the posterior
distribution. In cases for which exact inference of the posterior predictive
distribution is intractable, approximation methods are typically applied, e.g.
Monte Carlo (MC) simulation. The more samples, the higher the accuracy -- but
at the expense of increased computational cost. Our approach removes the need
for iterative MC simulation on the CPU at prediction time. In brief, it works
by fitting a NN to synthetic data generated using the BM. In a single
feed-forward pass of the NN, it gives a set of point-wise approximations to the
BM's posterior predictive distribution for a given observation. We achieve risk
minimized predictions significantly faster than standard methods with a
negligible loss on the testing dataset. We combine this approach with Active
Learning (AL) to minimize the amount of data required for fitting the NN. This
is done by iteratively labeling more data in regions with high predictive
uncertainty of the NN.
- Abstract(参考訳): 本稿では,ベイズモデル (BM) とニューラルネットワーク (NN) を組み合わせて,予測を最小限のリスクで行う手法を提案する。
我々のアプローチは、BMのデータ効率と解釈可能性とNNの速度を両世界の長所と組み合わせている。
bmでは、予測損失が最も低い予測を行うには、後方分布を統合する必要がある。
後部予測分布の正確な推定が難解である場合、近似法が典型的に適用される。
モンテカルロ (MC) のシミュレーション。
サンプルが多ければ多いほど精度は高くなりますが、計算コストの増大を犠牲にします。
提案手法では,予測時にCPU上で繰り返しMCシミュレーションを行う必要がなくなる。
簡単に言えば、NNをBMで生成された合成データに合わせることで機能する。
NNの1つのフィードフォワードパスでは、所与の観測のためにBMの後方予測分布に一組のポイントワイズ近似を与える。
テストデータセットに無視できる損失がある標準手法よりも、リスク最小化予測をはるかに高速に達成する。
このアプローチをアクティブラーニング(AL)と組み合わせて、NNの適合に必要なデータ量を最小化する。
これは、NNの予測の不確実性の高い地域で、より多くのデータを反復的にラベル付けすることで実現される。
関連論文リスト
- Deep Neural Networks Tend To Extrapolate Predictably [51.303814412294514]
ニューラルネットワークの予測は、アウト・オブ・ディストリビューション(OOD)入力に直面した場合、予測不可能で過信される傾向がある。
我々は、入力データがOODになるにつれて、ニューラルネットワークの予測が一定値に向かう傾向があることを観察する。
我々は、OOD入力の存在下でリスクに敏感な意思決定を可能にするために、私たちの洞察を実際に活用する方法を示します。
論文 参考訳(メタデータ) (2023-10-02T03:25:32Z) - Single-shot Bayesian approximation for neural networks [0.0]
ディープニューラルネットワーク(NN)はその高い予測性能で知られている。
NNは不確実性を示すことなく、全く新しい状況に遭遇すると信頼できない予測を下す傾向にある。
単発MCドロップアウト近似は,BNNの利点を保ちながら,NNと同じくらい高速であることを示す。
論文 参考訳(メタデータ) (2023-08-24T13:40:36Z) - Deep Neural Networks for Semiparametric Frailty Models via H-likelihood [0.0]
本稿では、時間-時間データの予測のための新しいディープニューラルネットワークベースの脆弱性(DNN-FM)を提案する。
新しいh-likelihoodモデルの合同推定器は、固定パラメータの最大値と、ランダムな欠陥の最良の非バイアス予測器を提供する。
論文 参考訳(メタデータ) (2023-07-13T06:46:51Z) - Improved uncertainty quantification for neural networks with Bayesian
last layer [0.0]
不確実性定量化は機械学習において重要な課題である。
本稿では,BLL を用いた NN の対数乗算可能性の再構成を行い,バックプロパゲーションを用いた効率的なトレーニングを実現する。
論文 参考訳(メタデータ) (2023-02-21T20:23:56Z) - Data Subsampling for Bayesian Neural Networks [0.0]
Penalty Bayesian Neural Networks - PBNNは,サブサンプルバッチデータによる可能性の評価を可能にする,新たなアルゴリズムである。
PBNNは,データサイズが小さい場合でも,予測性能が良好であることを示す。
論文 参考訳(メタデータ) (2022-10-17T14:43:35Z) - Parameter estimation for WMTI-Watson model of white matter using
encoder-decoder recurrent neural network [0.0]
本研究では,ラットおよびヒト脳のデータセット上でのNLLS,RNN法および多層パーセプトロン(MLP)の性能を評価する。
提案手法は,NLLSよりも計算時間を大幅に短縮できるという利点を示した。
論文 参考訳(メタデータ) (2022-03-01T16:33:15Z) - Learning to Estimate Without Bias [57.82628598276623]
ガウスの定理は、重み付き最小二乗推定器は線形モデルにおける線形最小分散アンバイアスド推定(MVUE)であると述べている。
本稿では、バイアス制約のあるディープラーニングを用いて、この結果を非線形設定に拡張する第一歩を踏み出す。
BCEの第二の動機は、同じ未知の複数の推定値が平均化されてパフォーマンスが向上するアプリケーションにおいてである。
論文 参考訳(メタデータ) (2021-10-24T10:23:51Z) - Imputation-Free Learning from Incomplete Observations [73.15386629370111]
本稿では,不備な値を含む入力からの推論をインプットなしでトレーニングするIGSGD法の重要性について紹介する。
バックプロパゲーションによるモデルのトレーニングに使用する勾配の調整には強化学習(RL)を用いる。
我々の計算自由予測は、最先端の計算手法を用いて従来の2段階の計算自由予測よりも優れている。
論文 参考訳(メタデータ) (2021-07-05T12:44:39Z) - Amortized Conditional Normalized Maximum Likelihood: Reliable Out of
Distribution Uncertainty Estimation [99.92568326314667]
本研究では,不確実性推定のための拡張性のある汎用的アプローチとして,償却条件正規化最大値(ACNML)法を提案する。
提案アルゴリズムは条件付き正規化最大度(CNML)符号化方式に基づいており、最小記述長の原理に従って最小値の最適特性を持つ。
我々は、ACNMLが、分布外入力のキャリブレーションの観点から、不確実性推定のための多くの手法と好意的に比較することを示した。
論文 参考訳(メタデータ) (2020-11-05T08:04:34Z) - Unlabelled Data Improves Bayesian Uncertainty Calibration under
Covariate Shift [100.52588638477862]
後続正則化に基づく近似ベイズ推定法を開発した。
前立腺癌の予後モデルを世界規模で導入する上で,本手法の有用性を実証する。
論文 参考訳(メタデータ) (2020-06-26T13:50:19Z) - Learning Minimax Estimators via Online Learning [55.92459567732491]
確率分布のパラメータを推定するミニマックス推定器を設計する際の問題点を考察する。
混合ケースナッシュ平衡を求めるアルゴリズムを構築した。
論文 参考訳(メタデータ) (2020-06-19T22:49:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。