論文の概要: Revisiting Likelihood-Based Out-of-Distribution Detection by Modeling Representations
- arxiv url: http://arxiv.org/abs/2504.07793v1
- Date: Thu, 10 Apr 2025 14:30:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-11 12:22:24.080738
- Title: Revisiting Likelihood-Based Out-of-Distribution Detection by Modeling Representations
- Title(参考訳): 表現のモデル化による分布外検出の再検討
- Authors: Yifan Ding, Arturas Aleksandrauskas, Amirhossein Ahmadian, Jonas Unger, Fredrik Lindsten, Gabriel Eilertsen,
- Abstract要約: ディープラーニングシステムの信頼性を確保するためには,アウト・オブ・ディストリビューション(OOD)検出が重要である。
親和性に基づく深層生成モデルは、OOD検出における不満足な性能に対して歴史的に批判を受けてきた。
事前学習したエンコーダの表現空間に適用した場合、確率に基づく手法は最先端の手法と同等に動作可能であることを示す。
- 参考スコア(独自算出の注目度): 16.317861186815364
- License:
- Abstract: Out-of-distribution (OOD) detection is critical for ensuring the reliability of deep learning systems, particularly in safety-critical applications. Likelihood-based deep generative models have historically faced criticism for their unsatisfactory performance in OOD detection, often assigning higher likelihood to OOD data than in-distribution samples when applied to image data. In this work, we demonstrate that likelihood is not inherently flawed. Rather, several properties in the images space prohibit likelihood as a valid detection score. Given a sufficiently good likelihood estimator, specifically using the probability flow formulation of a diffusion model, we show that likelihood-based methods can still perform on par with state-of-the-art methods when applied in the representation space of pre-trained encoders. The code of our work can be found at $\href{https://github.com/limchaos/Likelihood-OOD.git}{\texttt{https://github.com/limchaos/Likelihood-OOD.git}}$.
- Abstract(参考訳): アウト・オブ・ディストリビューション(OOD)検出は、特に安全クリティカルなアプリケーションにおいて、ディープラーニングシステムの信頼性を確保するために重要である。
親和性に基づく深層生成モデルは、OOD検出における不満足な性能に対して歴史的に批判を受けており、画像データに適用した場合の分布内サンプルよりもOODデータに高い確率を割り当てることが多い。
この研究は、可能性が本質的に欠陥がないことを実証する。
むしろ、画像空間のいくつかの特性は、有効な検出スコアとしての可能性を禁じている。
拡散モデルの確率フロー定式化を応用した十分十分な確率推定器を与えられた場合、事前学習エンコーダの表現空間に適用した場合、確率ベースの手法は最先端の手法と同等に動作可能であることを示す。
私たちの作業のコードは、$\href{https://github.com/limchaos/Likelihood-OOD.git}{\textt{https://github.com/limchaos/Likelihood-OOD.git}}$で見ることができる。
関連論文リスト
- Going Beyond Conventional OOD Detection [0.0]
アウト・オブ・ディストリビューション(OOD)検出は、重要なアプリケーションにディープラーニングモデルの安全なデプロイを保証するために重要である。
従来型OOD検出(ASCOOD)への統一的アプローチを提案する。
提案手法は, スパイラル相関の影響を効果的に軽減し, 微粒化特性の獲得を促す。
論文 参考訳(メタデータ) (2024-11-16T13:04:52Z) - Your Classifier Can Be Secretly a Likelihood-Based OOD Detector [17.420727709895736]
Intrinsic Likelihood (INK) を提案する。
INKは、far-OODと near-OODを含む様々なOOD検出設定において、新しい最先端技術を確立している。
論文 参考訳(メタデータ) (2024-08-09T04:00:53Z) - Model-free Test Time Adaptation for Out-Of-Distribution Detection [62.49795078366206]
我々はtextbfDistribution textbfDetection (abbr) のための非パラメトリックテスト時間 textbfAdaptation フレームワークを提案する。
Abbrは、オンラインテストサンプルを使用して、テスト中のモデル適応、データ分散の変更への適応性を向上させる。
複数のOOD検出ベンチマークにおける包括的実験により,abrの有効性を示す。
論文 参考訳(メタデータ) (2023-11-28T02:00:47Z) - Unleashing Mask: Explore the Intrinsic Out-of-Distribution Detection
Capability [70.72426887518517]
Out-of-Distribution(OOD)検出は、機械学習モデルを現実世界のアプリケーションにデプロイする際に、セキュアAIの必須の側面である。
本稿では,IDデータを用いた学習モデルのOOD識別能力を復元する新しい手法であるUnleashing Maskを提案する。
本手法では, マスクを用いて記憶した非定型サンプルを抽出し, モデルを微調整するか, 導入したマスクでプルーする。
論文 参考訳(メタデータ) (2023-06-06T14:23:34Z) - Masked Images Are Counterfactual Samples for Robust Fine-tuning [77.82348472169335]
微調整の深層学習モデルは、分布内(ID)性能と分布外(OOD)堅牢性の間のトレードオフにつながる可能性がある。
そこで本研究では,マスク付き画像を対物サンプルとして用いて,ファインチューニングモデルのロバスト性を向上させる新しいファインチューニング手法を提案する。
論文 参考訳(メタデータ) (2023-03-06T11:51:28Z) - Watermarking for Out-of-distribution Detection [76.20630986010114]
Out-of-Distribution (OOD) 検出は、よく訓練された深層モデルから抽出された表現に基づいてOODデータを識別することを目的としている。
本稿では,透かしという一般的な手法を提案する。
我々は,元データの特徴に重畳される統一パターンを学習し,ウォーターマーキング後にモデルの検出能力が大きく向上する。
論文 参考訳(メタデータ) (2022-10-27T06:12:32Z) - Understanding Failures in Out-of-Distribution Detection with Deep
Generative Models [22.11487118547924]
アウト・ディストリビューションが関係する仮定なしでは、ランダムな確率を超える性能を保証する方法が存在しないことを実証する。
イン・ディストリビューションとアウト・ディストリビューションのオーバーラップを想定した上で,その影響を強調した。
以上の結果から, 推定誤差は, 可能性に基づくOOD検出と利害分布の相違よりも, より妥当な説明であることが示唆された。
論文 参考訳(メタデータ) (2021-07-14T18:00:11Z) - Robust Out-of-Distribution Detection on Deep Probabilistic Generative
Models [0.06372261626436676]
アウト・オブ・ディストリビューション(OOD)検出は機械学習システムにおいて重要な課題である。
深い確率的生成モデルは、データサンプルの可能性を推定することによって、OODの検出を容易にする。
本稿では,外周露光を伴わない新しい検出指標を提案する。
論文 参考訳(メタデータ) (2021-06-15T06:36:10Z) - Learn what you can't learn: Regularized Ensembles for Transductive
Out-of-distribution Detection [76.39067237772286]
ニューラルネットワークの現在のアウト・オブ・ディストリビューション(OOD)検出アルゴリズムは,様々なOOD検出シナリオにおいて不満足な結果をもたらすことを示す。
本稿では,テストデータのバッチを観察した後に検出方法を調整することで,このような「ハード」なOODシナリオがいかに有用かを検討する。
本稿では,テストデータと正規化に人工ラベリング手法を用いて,テストバッチ内のOODサンプルに対してのみ矛盾予測を生成するモデルのアンサンブルを求める手法を提案する。
論文 参考訳(メタデータ) (2020-12-10T16:55:13Z) - Why Normalizing Flows Fail to Detect Out-of-Distribution Data [51.552870594221865]
正規化フローは、イン・オブ・ディストリビューションデータとアウト・オブ・ディストリビューションデータの区別に失敗する。
フローは局所的な画素相関と画像からラテンス空間への変換を学習する。
フロー結合層のアーキテクチャを変更することで、ターゲットデータのセマンティック構造を学ぶためのフローに偏りがあることが示される。
論文 参考訳(メタデータ) (2020-06-15T17:00:01Z) - Likelihood Regret: An Out-of-Distribution Detection Score For
Variational Auto-encoder [6.767885381740952]
確率的生成モデルは、ある種のアウト・オブ・ディストリビューション・サンプルに対して高い確率を割り当てることができる。
VAEのための効率的なOODスコアであるLikelihood Regretを提案する。
論文 参考訳(メタデータ) (2020-03-06T00:30:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。