論文の概要: Bayesian Autoencoders: Analysing and Fixing the Bernoulli likelihood for
Out-of-Distribution Detection
- arxiv url: http://arxiv.org/abs/2107.13304v1
- Date: Wed, 28 Jul 2021 11:51:35 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-29 18:44:04.952879
- Title: Bayesian Autoencoders: Analysing and Fixing the Bernoulli likelihood for
Out-of-Distribution Detection
- Title(参考訳): ベイズオートエンコーダ:分布外検出のためのベルヌーイ確率の解析と固定
- Authors: Bang Xiang Yong, Tim Pearce, Alexandra Brintrup
- Abstract要約: オートエンコーダが1つのデータセットを再構築することを学ぶと、アウト・オブ・ディストリビューション(OOD)入力の確率が低いことが期待できる。
最近の研究は、データセットペアのFashionMNIST対MNISTでこの直感的なアプローチが失敗することを示した。
本稿は、ベルヌーイ確率の使用と、これがなぜそうなるのかの分析によるものであることを示唆する。
- 参考スコア(独自算出の注目度): 71.05708939639538
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: After an autoencoder (AE) has learnt to reconstruct one dataset, it might be
expected that the likelihood on an out-of-distribution (OOD) input would be
low. This has been studied as an approach to detect OOD inputs. Recent work
showed this intuitive approach can fail for the dataset pairs FashionMNIST vs
MNIST. This paper suggests this is due to the use of Bernoulli likelihood and
analyses why this is the case, proposing two fixes: 1) Compute the uncertainty
of likelihood estimate by using a Bayesian version of the AE. 2) Use
alternative distributions to model the likelihood.
- Abstract(参考訳): オートエンコーダ(AE)が1つのデータセットの再構築を習った後、アウト・オブ・ディストリビューション(OOD)入力の確率が低いことが予想される。
これはOOD入力を検出するアプローチとして研究されている。
最近の研究は、データセットペアのFashionMNIST対MNISTでこの直感的なアプローチが失敗することを示した。
本論文は, ベルヌーイ法を用いて, 推定の不確かさをベイズ版 ae を用いて計算する, という2つの問題に対して, ベルヌーイ法が適用されていることを示唆する。
2) 確率をモデル化するために代替分布を用いる。
関連論文リスト
- How Does Unlabeled Data Provably Help Out-of-Distribution Detection? [63.41681272937562]
in-distribution (ID) とout-of-distribution (OOD) の両データの不均一性のため、未ラベルの in-the-wild データは非自明である。
本稿では,理論的保証と実証的有効性の両方を提供する新たな学習フレームワークであるSAL(Separate And Learn)を紹介する。
論文 参考訳(メタデータ) (2024-02-05T20:36:33Z) - Rethinking Test-time Likelihood: The Likelihood Path Principle and Its
Application to OOD Detection [5.747789057967598]
我々は、可能性経路(LPath)原理を導入し、可能性原理を一般化する。
これにより、情報的要約統計の探索を、VAEsの条件付き確率の最小限の統計量にまで絞り込む。
対応するLPathアルゴリズムは、推定値の低い単純かつ小さなVAEでもSOTA性能を示す。
論文 参考訳(メタデータ) (2024-01-10T05:07:14Z) - Black-Box Anomaly Attribution [2.22999837458579]
ブラックボックスの機械学習モデルが真の観察から逸脱したとき、その逸脱の背後にある理由について何を言えるだろうか?
これは、ビジネスまたは産業用AIアプリケーションのエンドユーザがよく問う、基本的でユビキタスな質問である。
「新たな可能性に基づく帰属の枠組みを「可能性補償」と呼ぶ。」
論文 参考訳(メタデータ) (2023-05-29T01:42:32Z) - Masked Images Are Counterfactual Samples for Robust Fine-tuning [77.82348472169335]
微調整の深層学習モデルは、分布内(ID)性能と分布外(OOD)堅牢性の間のトレードオフにつながる可能性がある。
そこで本研究では,マスク付き画像を対物サンプルとして用いて,ファインチューニングモデルのロバスト性を向上させる新しいファインチューニング手法を提案する。
論文 参考訳(メタデータ) (2023-03-06T11:51:28Z) - Do Bayesian Variational Autoencoders Know What They Don't Know? [0.6091702876917279]
OoD(Out-of-Distribution)入力を検出する問題は、ディープニューラルネットワークにとって最重要課題である。
入力の密度を推定できる深部生成モデルでさえ、信頼できない可能性があることが以前に示されている。
本稿では,マルコフ連鎖モンテカルロ,バックプロパゲーションによるベイズ勾配,およびウェイト平均ガウスの3つの推論手法について検討する。
論文 参考訳(メタデータ) (2022-12-29T11:48:01Z) - Efficient remedies for outlier detection with variational autoencoders [8.80692072928023]
深層生成モデルによって計算される類似度は、ラベルなしデータによる外れ値検出の候補メトリックである。
理論的に定位された補正は、VAE推定値による鍵バイアスを容易に改善することを示す。
また,VAEのアンサンブル上で計算される確率の分散により,ロバストな外乱検出が可能となることを示す。
論文 参考訳(メタデータ) (2021-08-19T16:00:58Z) - Robust Out-of-Distribution Detection on Deep Probabilistic Generative
Models [0.06372261626436676]
アウト・オブ・ディストリビューション(OOD)検出は機械学習システムにおいて重要な課題である。
深い確率的生成モデルは、データサンプルの可能性を推定することによって、OODの検出を容易にする。
本稿では,外周露光を伴わない新しい検出指標を提案する。
論文 参考訳(メタデータ) (2021-06-15T06:36:10Z) - In-N-Out: Pre-Training and Self-Training using Auxiliary Information for
Out-of-Distribution Robustness [97.14973924276201]
In-N-Outは補助的な入力を持つモデルを訓練し、それを全ての分配された入力に擬似ラベル付けし、OOD補助的な出力でモデルを事前訓練する。
In-N-Outがin- DistributionionとOODエラーの両方で補助入力や出力を単独で上回っていることを理論的および実証的に示します。
論文 参考訳(メタデータ) (2020-12-08T16:43:07Z) - Autoencoding Variational Autoencoder [56.05008520271406]
我々は,この行動が学習表現に与える影響と,自己整合性の概念を導入することでそれを修正する結果について検討する。
自己整合性アプローチで訓練されたエンコーダは、敵攻撃による入力の摂動に対して頑健な(無神経な)表現につながることを示す。
論文 参考訳(メタデータ) (2020-12-07T14:16:14Z) - Uncertainty Estimation Using a Single Deep Deterministic Neural Network [66.26231423824089]
本稿では,1回のフォワードパスで,テスト時に分布データポイントの発見と拒否が可能な決定論的ディープモデルを訓練する手法を提案する。
我々は,新しい損失関数とセントロイド更新方式を用いて,これらをスケールトレーニングし,ソフトマックスモデルの精度に適合させる。
論文 参考訳(メタデータ) (2020-03-04T12:27:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。