論文の概要: Is MC Dropout Bayesian?
- arxiv url: http://arxiv.org/abs/2110.04286v1
- Date: Fri, 8 Oct 2021 17:53:46 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-11 14:14:50.421820
- Title: Is MC Dropout Bayesian?
- Title(参考訳): MCドロップアウト・ベイジアンか?
- Authors: Loic Le Folgoc and Vasileios Baltatzis and Sujal Desai and Anand
Devaraj and Sam Ellis and Octavio E. Martinez Manzanera and Arjun Nair and
Huaqi Qiu and Julia Schnabel and Ben Glocker
- Abstract要約: MC Dropoutは、ベイズ近似計算(ABC)のための医療画像における主流の「フリーランチ」手法である
実際、MC Dropoutはベイズモデルを変えるため、近似推論のためにMC Dropoutの特性を疑問視する。
任意のモデル上での変分推論の必要性に対処するため、pytorchフレームワーク内で一般的なVIエンジンを共有する。
- 参考スコア(独自算出の注目度): 11.222109399320955
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: MC Dropout is a mainstream "free lunch" method in medical imaging for
approximate Bayesian computations (ABC). Its appeal is to solve out-of-the-box
the daunting task of ABC and uncertainty quantification in Neural Networks
(NNs); to fall within the variational inference (VI) framework; and to propose
a highly multimodal, faithful predictive posterior. We question the properties
of MC Dropout for approximate inference, as in fact MC Dropout changes the
Bayesian model; its predictive posterior assigns $0$ probability to the true
model on closed-form benchmarks; the multimodality of its predictive posterior
is not a property of the true predictive posterior but a design artefact. To
address the need for VI on arbitrary models, we share a generic VI engine
within the pytorch framework. The code includes a carefully designed
implementation of structured (diagonal plus low-rank) multivariate normal
variational families, and mixtures thereof. It is intended as a go-to
no-free-lunch approach, addressing shortcomings of mean-field VI with an
adjustable trade-off between expressivity and computational complexity.
- Abstract(参考訳): MC Dropoutは、ベイズ近似計算(ABC)の医療画像における主流の「無料ランチ」手法である。
その魅力は、ABCの退屈なタスクとニューラルネットワーク(NN)の不確かさの定量化を解決し、変動推論(VI)フレームワークに該当し、高度にマルチモーダルで忠実な予測後部を提案することである。
我々はmcドロップアウトの性質を近似推論に疑問視し、実際、mcドロップアウトはベイズモデルを変化させる;その予測後段は閉形式ベンチマークの真のモデルに0$の確率を割り当てる;その予測後段のマルチモーダリティは真の予測後段の性質ではなく、設計上のアーティファクトである。
任意のモデルでのVIの必要性に対処するため、pytorchフレームワーク内の一般的なVIエンジンを共有します。
コードには、構造化(対角+低ランク)多変量正規変分族とその混合体を慎重に設計した実装が含まれている。
これは、平均場 VI の欠点に、表現性と計算複雑性の間の調整可能なトレードオフで対処するゴーツーノーランチアプローチとして意図されている。
関連論文リスト
- Rejection via Learning Density Ratios [50.91522897152437]
拒絶による分類は、モデルを予測しないことを許容する学習パラダイムとして現れます。
そこで我々は,事前学習したモデルの性能を最大化する理想的なデータ分布を求める。
私たちのフレームワークは、クリーンでノイズの多いデータセットで実証的にテストされます。
論文 参考訳(メタデータ) (2024-05-29T01:32:17Z) - Calibrating Neural Simulation-Based Inference with Differentiable
Coverage Probability [50.44439018155837]
ニューラルモデルのトレーニング目的に直接キャリブレーション項を含めることを提案する。
古典的なキャリブレーション誤差の定式化を緩和することにより、エンドツーエンドのバックプロパゲーションを可能にする。
既存の計算パイプラインに直接適用でき、信頼性の高いブラックボックス後部推論が可能である。
論文 参考訳(メタデータ) (2023-10-20T10:20:45Z) - Prototype-based Aleatoric Uncertainty Quantification for Cross-modal
Retrieval [139.21955930418815]
クロスモーダル検索手法は、共通表現空間を共同学習することにより、視覚と言語モダリティの類似性関係を構築する。
しかし、この予測は、低品質なデータ、例えば、腐敗した画像、速いペースの動画、詳細でないテキストによって引き起こされるアレタリック不確実性のために、しばしば信頼性が低い。
本稿では, 原型に基づくAleatoric Uncertainity Quantification (PAU) フレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-29T09:41:19Z) - GFlowOut: Dropout with Generative Flow Networks [76.59535235717631]
モンテカルロ・ドロップアウトは近似推論の比較的安価な方法として広く利用されている。
最近の研究は、ドロップアウトマスクを潜伏変数と見なすことができ、変動推論で推測できることを示している。
GFlowOutleveragesは、最近提案されたジェネレーティブフローネットワーク(GFlowNets)の確率的フレームワークを使用して、ドロップアウトマスク上の後部分布を学習する。
論文 参考訳(メタデータ) (2022-10-24T03:00:01Z) - NUQ: Nonparametric Uncertainty Quantification for Deterministic Neural
Networks [151.03112356092575]
本研究では,Nadaraya-Watson の条件付きラベル分布の非パラメトリック推定に基づく分類器の予測の不確かさの測定方法を示す。
種々の実世界の画像データセットにおける不確実性推定タスクにおいて,本手法の強い性能を示す。
論文 参考訳(メタデータ) (2022-02-07T12:30:45Z) - Neighborhood Spatial Aggregation MC Dropout for Efficient
Uncertainty-aware Semantic Segmentation in Point Clouds [8.98036662506975]
不確実性を考慮した点雲のセマンティックセマンティックセグメンテーションには、予測的不確実性推定と不確実性誘導モデル最適化が含まれる。
広く使われているMCドロップアウトは、複数の前方伝播を用いてサンプルの標準偏差を計算することによって分布を確立する。
MCドロップアウトの変種であるNSA-MCドロップアウトを組み込んだフレームワークが提案され、たった1つのフォワードパスで配布を確立する。
論文 参考訳(メタデータ) (2021-12-05T02:22:32Z) - $\Delta$-UQ: Accurate Uncertainty Quantification via Anchor
Marginalization [40.581619201120716]
予測モデルにおけるアンカーの概念を用いた新規で汎用的な不確実性推定器であるDelta$UQを提案する。
この不確実性は、入力データの不適切なサンプリングと固有のノイズと深く結びついているので、あらゆるシステムにおける完全な不確実性を評価することができる。
論文 参考訳(メタデータ) (2021-10-05T17:44:31Z) - Structured Stochastic Gradient MCMC [20.68905354115655]
近似した後方関数形式を仮定しない新しい非パラメトリック変分近似を提案する。
完全なSGMCMCよりも優れた予測可能性と有効試料サイズが得られる。
論文 参考訳(メタデータ) (2021-07-19T17:18:10Z) - Contextual Dropout: An Efficient Sample-Dependent Dropout Module [60.63525456640462]
ドロップアウトは、ディープニューラルネットワークのトレーニングプロセスを正規化するシンプルで効果的なモジュールとして実証されています。
単純でスケーラブルなサンプル依存型ドロップアウトモジュールとして,効率的な構造設計によるコンテキスト型ドロップアウトを提案する。
提案手法は,不確実性推定の精度と品質の両面において,ベースライン法よりも優れていた。
論文 参考訳(メタデータ) (2021-03-06T19:30:32Z) - A Novel Regression Loss for Non-Parametric Uncertainty Optimization [7.766663822644739]
不確実性の定量化は、安全な機械学習を確立する最も有望なアプローチの1つである。
これまでの最も一般的なアプローチの1つはモンテカルロドロップアウトで、計算量的に安価で、実際に簡単に適用できる。
この問題に対処するため,第2モーメント損失(UCI)と呼ばれる新たな目標を提案する。
論文 参考訳(メタデータ) (2021-01-07T19:12:06Z) - Stacking for Non-mixing Bayesian Computations: The Curse and Blessing of
Multimodal Posteriors [8.11978827493967]
MCMCの並列実行, 変動型, モードベースの推論を用いて, できるだけ多くのモードをヒットさせる手法を提案する。
重み付き推論プロセスが真のデータを近似する例と理論的整合性を示す。
いくつかのモデルファミリで実践的な実装を示す。
論文 参考訳(メタデータ) (2020-06-22T15:26:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。