論文の概要: Understanding Failures in Out-of-Distribution Detection with Deep
Generative Models
- arxiv url: http://arxiv.org/abs/2107.06908v1
- Date: Wed, 14 Jul 2021 18:00:11 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-16 13:59:10.592541
- Title: Understanding Failures in Out-of-Distribution Detection with Deep
Generative Models
- Title(参考訳): 深部生成モデルを用いた分布外検出における故障の理解
- Authors: Lily H. Zhang, Mark Goldstein, Rajesh Ranganath
- Abstract要約: アウト・ディストリビューションが関係する仮定なしでは、ランダムな確率を超える性能を保証する方法が存在しないことを実証する。
イン・ディストリビューションとアウト・ディストリビューションのオーバーラップを想定した上で,その影響を強調した。
以上の結果から, 推定誤差は, 可能性に基づくOOD検出と利害分布の相違よりも, より妥当な説明であることが示唆された。
- 参考スコア(独自算出の注目度): 22.11487118547924
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Deep generative models (DGMs) seem a natural fit for detecting
out-of-distribution (OOD) inputs, but such models have been shown to assign
higher probabilities or densities to OOD images than images from the training
distribution. In this work, we explain why this behavior should be attributed
to model misestimation. We first prove that no method can guarantee performance
beyond random chance without assumptions on which out-distributions are
relevant. We then interrogate the typical set hypothesis, the claim that
relevant out-distributions can lie in high likelihood regions of the data
distribution, and that OOD detection should be defined based on the data
distribution's typical set. We highlight the consequences implied by assuming
support overlap between in- and out-distributions, as well as the arbitrariness
of the typical set for OOD detection. Our results suggest that estimation error
is a more plausible explanation than the misalignment between likelihood-based
OOD detection and out-distributions of interest, and we illustrate how even
minimal estimation error can lead to OOD detection failures, yielding
implications for future work in deep generative modeling and OOD detection.
- Abstract(参考訳): 深部生成モデル (DGM) は, アウト・オブ・ディストリビューション (OOD) の入力を検出するのに適していると考えられるが, トレーニング分布の画像よりも高い確率や密度をOOD画像に割り当てることが示されている。
本稿では,この行動がモデル推定に起因している理由を説明する。
まず,外部分布が関係していると仮定することなく,ランダムな偶然以上の性能を保証できないことを証明した。
次に、典型的な集合仮説、関連する外分布はデータ分布の確率の高い領域にあり、ood検出はデータ分布の典型的な集合に基づいて定義されるべきであるという主張を問う。
我々は,OOD検出の典型的な集合の任意性だけでなく,内分布と外分布の重なり合いを仮定することによってもたらされる影響を強調した。
以上の結果から, 推定誤差は, 可能性に基づくOOD検出と関心の分散との相違よりも, 推定誤差の最小化がOOD検出の失敗の原因となりうることを示すとともに, 深部生成モデルやOOD検出における今後の研究に影響を及ぼすことを示す。
関連論文リスト
- Out-of-Distribution Detection with a Single Unconditional Diffusion Model [54.15132801131365]
アウト・オブ・ディストリビューション(OOD)検出は、異常サンプルを特定しようとする機械学習において重要なタスクである。
従来、教師なし手法はOOD検出に深い生成モデルを用いていた。
本稿では,単一汎用モデルが多様なタスクに対してOOD検出を行うことができるかどうかを考察する。
論文 参考訳(メタデータ) (2024-05-20T08:54:03Z) - A Geometric Explanation of the Likelihood OOD Detection Paradox [19.205693812937422]
最小の確率質量を含む場合、高次領域は生成されないことを示す。
本稿では,事前訓練したDGMから得られた可能性とLID推定値とをペアリングするOOD検出手法を提案する。
論文 参考訳(メタデータ) (2024-03-27T18:02:49Z) - Projection Regret: Reducing Background Bias for Novelty Detection via
Diffusion Models [72.07462371883501]
本研究では,非意味情報のバイアスを緩和する効率的な新規性検出手法であるemphProjection Regret(PR)を提案する。
PRは、テスト画像とその拡散ベースの投影の間の知覚距離を計算し、異常を検出する。
拡張実験により、PRは生成モデルに基づく新規性検出手法の先行技術よりも有意なマージンで優れていることが示された。
論文 参考訳(メタデータ) (2023-12-05T09:44:47Z) - Model-free Test Time Adaptation for Out-Of-Distribution Detection [62.49795078366206]
我々はtextbfDistribution textbfDetection (abbr) のための非パラメトリックテスト時間 textbfAdaptation フレームワークを提案する。
Abbrは、オンラインテストサンプルを使用して、テスト中のモデル適応、データ分散の変更への適応性を向上させる。
複数のOOD検出ベンチマークにおける包括的実験により,abrの有効性を示す。
論文 参考訳(メタデータ) (2023-11-28T02:00:47Z) - Robustness to Spurious Correlations Improves Semantic
Out-of-Distribution Detection [24.821151013905865]
画像入力のアウト・オブ・ディストリビューション(OOD)検出のための有望なアプローチとして,予測モデルの出力や特徴表現を利用する手法が登場した。
SN-OOD検出の故障について説明し、その対策としてニュアンス対応のOOD検出を提案する。
論文 参考訳(メタデータ) (2023-02-08T15:28:33Z) - Energy-based Out-of-Distribution Detection for Graph Neural Networks [76.0242218180483]
我々は,GNNSafeと呼ばれるグラフ上での学習のための,シンプルで強力で効率的なOOD検出モデルを提案する。
GNNSafeは、最先端技術に対するAUROCの改善を最大17.0%で達成しており、そのような未開発領域では単純だが強力なベースラインとして機能する可能性がある。
論文 参考訳(メタデータ) (2023-02-06T16:38:43Z) - Rethinking Out-of-Distribution Detection From a Human-Centric
Perspective [22.834986963880482]
Out-Of-Distribution(OOD)検出は、現実世界のシナリオにおけるディープニューラルネットワーク(DNN)の信頼性と安全性を保証することを目的としている。
そこで本研究では,45個の分類器と8つのテストデータセットに対して,人間中心の評価を行い,広範な実験を行う。
単純なベースラインOOD検出手法は,最近提案した手法と同等,さらに優れた性能を実現することができる。
論文 参考訳(メタデータ) (2022-11-30T06:34:50Z) - A statistical theory of out-of-distribution detection [26.928175726673615]
本稿では,データキュレーションへの接続を利用して分布外データを検出するための原則的手法を提案する。
データキュレーションでは、データセットから曖昧または分類が難しい入力ポイントを除外し、これらの除外ポイントは定義OODです。
したがって、データキュレーションの原理的生成モデルを用いて、OOD点の確率を得ることができる。
論文 参考訳(メタデータ) (2021-02-24T12:35:43Z) - Learn what you can't learn: Regularized Ensembles for Transductive
Out-of-distribution Detection [76.39067237772286]
ニューラルネットワークの現在のアウト・オブ・ディストリビューション(OOD)検出アルゴリズムは,様々なOOD検出シナリオにおいて不満足な結果をもたらすことを示す。
本稿では,テストデータのバッチを観察した後に検出方法を調整することで,このような「ハード」なOODシナリオがいかに有用かを検討する。
本稿では,テストデータと正規化に人工ラベリング手法を用いて,テストバッチ内のOODサンプルに対してのみ矛盾予測を生成するモデルのアンサンブルを求める手法を提案する。
論文 参考訳(メタデータ) (2020-12-10T16:55:13Z) - The Hidden Uncertainty in a Neural Networks Activations [105.4223982696279]
ニューラルネットワークの潜在表現の分布は、アウト・オブ・ディストリビューション(OOD)データの検出に成功している。
本研究は、この分布が、モデルの不確実性と相関しているかどうかを考察し、新しい入力に一般化する能力を示す。
論文 参考訳(メタデータ) (2020-12-05T17:30:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。