論文の概要: Probabilistic Circuits That Know What They Don't Know
- arxiv url: http://arxiv.org/abs/2302.06544v3
- Date: Mon, 12 Jun 2023 06:36:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-14 01:09:57.700715
- Title: Probabilistic Circuits That Know What They Don't Know
- Title(参考訳): 自分が知らないことを 知っている確率的回路は
- Authors: Fabrizio Ventola and Steven Braun and Zhongjie Yu and Martin Mundt and
Kristian Kersting
- Abstract要約: 確率回路(英: Probabilistic circuit、PC)は、正確な確率的推論を可能にするモデルである。
実際にPCは、アウト・オブ・ディストリビューション(OOD)データに対して堅牢ではない。
本稿では,モンテカルロ・ドロップアウト (MCD) の解析解を分散伝搬により導出した不確実性推定手法であるトラクタブル・ドロップアウト推論 (TDI) を提案する。
- 参考スコア(独自算出の注目度): 17.335642512433385
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Probabilistic circuits (PCs) are models that allow exact and tractable
probabilistic inference. In contrast to neural networks, they are often assumed
to be well-calibrated and robust to out-of-distribution (OOD) data. In this
paper, we show that PCs are in fact not robust to OOD data, i.e., they don't
know what they don't know. We then show how this challenge can be overcome by
model uncertainty quantification. To this end, we propose tractable dropout
inference (TDI), an inference procedure to estimate uncertainty by deriving an
analytical solution to Monte Carlo dropout (MCD) through variance propagation.
Unlike MCD in neural networks, which comes at the cost of multiple network
evaluations, TDI provides tractable sampling-free uncertainty estimates in a
single forward pass. TDI improves the robustness of PCs to distribution shift
and OOD data, demonstrated through a series of experiments evaluating the
classification confidence and uncertainty estimates on real-world data.
- Abstract(参考訳): 確率回路(probabilistic circuits, pcs)は、正確な確率的推論を可能にするモデルである。
ニューラルネットワークとは対照的に、それらはよく校正され、アウト・オブ・ディストリビューション(OOD)データに対して堅牢であると考えられている。
本稿では,PCがOODデータに対して堅牢ではないことを示す。
次に,この課題をモデル不確実性定量化によって克服する方法を示す。
そこで本研究では,モンテカルロ・ドロップアウト(mcd)の解析解を分散伝播によって導出することにより不確かさを推定する推定手法であるtdiを提案する。
複数のネットワーク評価のコストがかかるニューラルネットワークのmcdとは異なり、tdiは単一のフォワードパスでサンプリング不要の不確実性推定を提供する。
TDIは,PCの分散シフトやOODデータに対する堅牢性を改善し,実世界のデータに対する分類信頼性と不確実性評価を評価する一連の実験を通じて実証した。
関連論文リスト
- Conservative Prediction via Data-Driven Confidence Minimization [70.93946578046003]
機械学習の安全性クリティカルな応用においては、モデルが保守的であることが望ましいことが多い。
本研究では,不確実性データセットに対する信頼性を最小化するデータ駆動信頼性最小化フレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-08T07:05:36Z) - NUQ: Nonparametric Uncertainty Quantification for Deterministic Neural
Networks [151.03112356092575]
本研究では,Nadaraya-Watson の条件付きラベル分布の非パラメトリック推定に基づく分類器の予測の不確かさの測定方法を示す。
種々の実世界の画像データセットにおける不確実性推定タスクにおいて,本手法の強い性能を示す。
論文 参考訳(メタデータ) (2022-02-07T12:30:45Z) - Robust uncertainty estimates with out-of-distribution pseudo-inputs
training [0.0]
我々は、信頼性のあるデータを与えられていない不確実性予測器を明示的に訓練することを提案する。
データ無しでは訓練できないので、入力空間の情報的低密度領域において擬似入力を生成するメカニズムを提供する。
総合的な評価により、様々なタスクにおける最先端性能を維持しながら、不確実性の頑健かつ解釈可能な予測が得られることを示す。
論文 参考訳(メタデータ) (2022-01-15T17:15:07Z) - Statistical Testing for Efficient Out of Distribution Detection in Deep
Neural Networks [26.0303701309125]
本稿では,Deep Neural Networks の Out Of Distribution (OOD) 検出問題を統計的仮説テスト問題として考察する。
このフレームワークに基づいて、低階統計に基づいた新しいOOD手順を提案します。
本手法は,ネットワークパラメータの再トレーニングを行わずに,oodベンチマークの精度が向上した。
論文 参考訳(メタデータ) (2021-02-25T16:14:47Z) - A statistical theory of out-of-distribution detection [26.928175726673615]
本稿では,データキュレーションへの接続を利用して分布外データを検出するための原則的手法を提案する。
データキュレーションでは、データセットから曖昧または分類が難しい入力ポイントを除外し、これらの除外ポイントは定義OODです。
したがって、データキュレーションの原理的生成モデルを用いて、OOD点の確率を得ることができる。
論文 参考訳(メタデータ) (2021-02-24T12:35:43Z) - Learn what you can't learn: Regularized Ensembles for Transductive
Out-of-distribution Detection [76.39067237772286]
ニューラルネットワークの現在のアウト・オブ・ディストリビューション(OOD)検出アルゴリズムは,様々なOOD検出シナリオにおいて不満足な結果をもたらすことを示す。
本稿では,テストデータのバッチを観察した後に検出方法を調整することで,このような「ハード」なOODシナリオがいかに有用かを検討する。
本稿では,テストデータと正規化に人工ラベリング手法を用いて,テストバッチ内のOODサンプルに対してのみ矛盾予測を生成するモデルのアンサンブルを求める手法を提案する。
論文 参考訳(メタデータ) (2020-12-10T16:55:13Z) - The Hidden Uncertainty in a Neural Networks Activations [105.4223982696279]
ニューラルネットワークの潜在表現の分布は、アウト・オブ・ディストリビューション(OOD)データの検出に成功している。
本研究は、この分布が、モデルの不確実性と相関しているかどうかを考察し、新しい入力に一般化する能力を示す。
論文 参考訳(メタデータ) (2020-12-05T17:30:35Z) - Unlabelled Data Improves Bayesian Uncertainty Calibration under
Covariate Shift [100.52588638477862]
後続正則化に基づく近似ベイズ推定法を開発した。
前立腺癌の予後モデルを世界規模で導入する上で,本手法の有用性を実証する。
論文 参考訳(メタデータ) (2020-06-26T13:50:19Z) - Posterior Network: Uncertainty Estimation without OOD Samples via
Density-Based Pseudo-Counts [33.45069308137142]
Posterior Network (PostNet) は、任意のサンプルに対する予測確率よりも、個々の閉形式後部分布を予測する。
PostNetは、OODの検出とデータセットシフトによる不確実なキャリブレーションにおいて、最先端の成果を達成する。
論文 参考訳(メタデータ) (2020-06-16T15:16:32Z) - Uncertainty Estimation Using a Single Deep Deterministic Neural Network [66.26231423824089]
本稿では,1回のフォワードパスで,テスト時に分布データポイントの発見と拒否が可能な決定論的ディープモデルを訓練する手法を提案する。
我々は,新しい損失関数とセントロイド更新方式を用いて,これらをスケールトレーニングし,ソフトマックスモデルの精度に適合させる。
論文 参考訳(メタデータ) (2020-03-04T12:27:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。