論文の概要: Bayesian Autoencoders: Analysing and Fixing the Bernoulli likelihood for
Out-of-Distribution Detection
- arxiv url: http://arxiv.org/abs/2107.13304v1
- Date: Wed, 28 Jul 2021 11:51:35 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-29 18:44:04.952879
- Title: Bayesian Autoencoders: Analysing and Fixing the Bernoulli likelihood for
Out-of-Distribution Detection
- Title(参考訳): ベイズオートエンコーダ:分布外検出のためのベルヌーイ確率の解析と固定
- Authors: Bang Xiang Yong, Tim Pearce, Alexandra Brintrup
- Abstract要約: オートエンコーダが1つのデータセットを再構築することを学ぶと、アウト・オブ・ディストリビューション(OOD)入力の確率が低いことが期待できる。
最近の研究は、データセットペアのFashionMNIST対MNISTでこの直感的なアプローチが失敗することを示した。
本稿は、ベルヌーイ確率の使用と、これがなぜそうなるのかの分析によるものであることを示唆する。
- 参考スコア(独自算出の注目度): 71.05708939639538
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: After an autoencoder (AE) has learnt to reconstruct one dataset, it might be
expected that the likelihood on an out-of-distribution (OOD) input would be
low. This has been studied as an approach to detect OOD inputs. Recent work
showed this intuitive approach can fail for the dataset pairs FashionMNIST vs
MNIST. This paper suggests this is due to the use of Bernoulli likelihood and
analyses why this is the case, proposing two fixes: 1) Compute the uncertainty
of likelihood estimate by using a Bayesian version of the AE. 2) Use
alternative distributions to model the likelihood.
- Abstract(参考訳): オートエンコーダ(AE)が1つのデータセットの再構築を習った後、アウト・オブ・ディストリビューション(OOD)入力の確率が低いことが予想される。
これはOOD入力を検出するアプローチとして研究されている。
最近の研究は、データセットペアのFashionMNIST対MNISTでこの直感的なアプローチが失敗することを示した。
本論文は, ベルヌーイ法を用いて, 推定の不確かさをベイズ版 ae を用いて計算する, という2つの問題に対して, ベルヌーイ法が適用されていることを示唆する。
2) 確率をモデル化するために代替分布を用いる。
関連論文リスト
- F-Fidelity: A Robust Framework for Faithfulness Evaluation of Explainable AI [15.314388210699443]
微調整フィデリティF-フィデリティはXAIの堅牢な評価フレームワークである。
その結果, F-Fidelity は, 説明者の信頼度を回復する上で, 事前評価基準を著しく改善することを示した。
また,F-Fidelityの指標を忠実に説明すれば,入力成分の空間性を計算することができることを示す。
論文 参考訳(メタデータ) (2024-10-03T20:23:06Z) - Rejection via Learning Density Ratios [50.91522897152437]
拒絶による分類は、モデルを予測しないことを許容する学習パラダイムとして現れます。
そこで我々は,事前学習したモデルの性能を最大化する理想的なデータ分布を求める。
私たちのフレームワークは、クリーンでノイズの多いデータセットで実証的にテストされます。
論文 参考訳(メタデータ) (2024-05-29T01:32:17Z) - Rethinking Test-time Likelihood: The Likelihood Path Principle and Its
Application to OOD Detection [5.747789057967598]
我々は、可能性経路(LPath)原理を導入し、可能性原理を一般化する。
これにより、情報的要約統計の探索を、VAEsの条件付き確率の最小限の統計量にまで絞り込む。
対応するLPathアルゴリズムは、推定値の低い単純かつ小さなVAEでもSOTA性能を示す。
論文 参考訳(メタデータ) (2024-01-10T05:07:14Z) - Conservative Prediction via Data-Driven Confidence Minimization [70.93946578046003]
機械学習の安全性クリティカルな応用においては、モデルが保守的であることが望ましいことが多い。
本研究では,不確実性データセットに対する信頼性を最小化するデータ駆動信頼性最小化フレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-08T07:05:36Z) - Do Bayesian Variational Autoencoders Know What They Don't Know? [0.6091702876917279]
OoD(Out-of-Distribution)入力を検出する問題は、ディープニューラルネットワークにとって最重要課題である。
入力の密度を推定できる深部生成モデルでさえ、信頼できない可能性があることが以前に示されている。
本稿では,マルコフ連鎖モンテカルロ,バックプロパゲーションによるベイズ勾配,およびウェイト平均ガウスの3つの推論手法について検討する。
論文 参考訳(メタデータ) (2022-12-29T11:48:01Z) - Efficient remedies for outlier detection with variational autoencoders [8.80692072928023]
深層生成モデルによって計算される類似度は、ラベルなしデータによる外れ値検出の候補メトリックである。
理論的に定位された補正は、VAE推定値による鍵バイアスを容易に改善することを示す。
また,VAEのアンサンブル上で計算される確率の分散により,ロバストな外乱検出が可能となることを示す。
論文 参考訳(メタデータ) (2021-08-19T16:00:58Z) - Robust Out-of-Distribution Detection on Deep Probabilistic Generative
Models [0.06372261626436676]
アウト・オブ・ディストリビューション(OOD)検出は機械学習システムにおいて重要な課題である。
深い確率的生成モデルは、データサンプルの可能性を推定することによって、OODの検出を容易にする。
本稿では,外周露光を伴わない新しい検出指標を提案する。
論文 参考訳(メタデータ) (2021-06-15T06:36:10Z) - In-N-Out: Pre-Training and Self-Training using Auxiliary Information for
Out-of-Distribution Robustness [97.14973924276201]
In-N-Outは補助的な入力を持つモデルを訓練し、それを全ての分配された入力に擬似ラベル付けし、OOD補助的な出力でモデルを事前訓練する。
In-N-Outがin- DistributionionとOODエラーの両方で補助入力や出力を単独で上回っていることを理論的および実証的に示します。
論文 参考訳(メタデータ) (2020-12-08T16:43:07Z) - Autoencoding Variational Autoencoder [56.05008520271406]
我々は,この行動が学習表現に与える影響と,自己整合性の概念を導入することでそれを修正する結果について検討する。
自己整合性アプローチで訓練されたエンコーダは、敵攻撃による入力の摂動に対して頑健な(無神経な)表現につながることを示す。
論文 参考訳(メタデータ) (2020-12-07T14:16:14Z) - Uncertainty Estimation Using a Single Deep Deterministic Neural Network [66.26231423824089]
本稿では,1回のフォワードパスで,テスト時に分布データポイントの発見と拒否が可能な決定論的ディープモデルを訓練する手法を提案する。
我々は,新しい損失関数とセントロイド更新方式を用いて,これらをスケールトレーニングし,ソフトマックスモデルの精度に適合させる。
論文 参考訳(メタデータ) (2020-03-04T12:27:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。