論文の概要: Probability Density from Latent Diffusion Models for Out-of-Distribution Detection
- arxiv url: http://arxiv.org/abs/2508.15737v1
- Date: Thu, 21 Aug 2025 17:27:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-22 16:26:46.423989
- Title: Probability Density from Latent Diffusion Models for Out-of-Distribution Detection
- Title(参考訳): アウト・オブ・ディストリビューション検出のための潜時拡散モデルからの確率密度
- Authors: Joonas Järve, Karl Kaspar Haavel, Meelis Kull,
- Abstract要約: 機械学習システムをデプロイする上で、安全は依然として大きなボトルネックだ。
生成モデルでは、最も自然なOODスコアはデータの可能性である。
実際に失敗する可能性もしばしばあり、その有用性に疑問を呈する。
- 参考スコア(独自算出の注目度): 1.6954767541769011
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite rapid advances in AI, safety remains the main bottleneck to deploying machine-learning systems. A critical safety component is out-of-distribution detection: given an input, decide whether it comes from the same distribution as the training data. In generative models, the most natural OOD score is the data likelihood. Actually, under the assumption of uniformly distributed OOD data, the likelihood is even the optimal OOD detector, as we show in this work. However, earlier work reported that likelihood often fails in practice, raising doubts about its usefulness. We explore whether, in practice, the representation space also suffers from the inability to learn good density estimation for OOD detection, or if it is merely a problem of the pixel space typically used in generative models. To test this, we trained a Variational Diffusion Model not on images, but on the representation space of a pre-trained ResNet-18 to assess the performance of our likelihood-based detector in comparison to state-of-the-art methods from the OpenOOD suite.
- Abstract(参考訳): AIの急速な進歩にもかかわらず、安全は機械学習システムのデプロイにおける主要なボトルネックであり続けている。
クリティカルセーフティコンポーネントは、アウト・オブ・ディストリビューション検出(out-of-distriion detection):入力が与えられたら、トレーニングデータと同じ分布から来るかどうかを決定する。
生成モデルでは、最も自然なOODスコアはデータの可能性である。
実際、一様分散OODデータという仮定の下では、この研究で示されているように、最適なOOD検出器の可能性さえある。
しかし、初期の研究は、おそらく実際は失敗することが多いと報告し、その有用性に対する疑念を提起した。
我々は、実際に表現空間がOOD検出のための優れた密度推定を学べないことや、それが単に生成モデルで一般的に用いられるピクセル空間の問題であるかどうかを考察する。
これをテストするために、画像ではなく、事前訓練されたResNet-18の表現空間に基づいて変分拡散モデルを訓練し、OpenOODスイートの最先端手法と比較して、確率ベース検出器の性能を評価する。
関連論文リスト
- Revisiting Likelihood-Based Out-of-Distribution Detection by Modeling Representations [16.317861186815364]
ディープラーニングシステムの信頼性を確保するためには,アウト・オブ・ディストリビューション(OOD)検出が重要である。
親和性に基づく深層生成モデルは、OOD検出における不満足な性能に対して歴史的に批判を受けてきた。
事前学習したエンコーダの表現空間に適用した場合、確率に基づく手法は最先端の手法と同等に動作可能であることを示す。
論文 参考訳(メタデータ) (2025-04-10T14:30:41Z) - What If the Input is Expanded in OOD Detection? [77.37433624869857]
Out-of-distriion (OOD) 検出は未知のクラスからのOOD入力を特定することを目的としている。
In-distriion(ID)データと区別するために,様々なスコアリング関数を提案する。
入力空間に異なる共通の汚職を用いるという、新しい視点を導入する。
論文 参考訳(メタデータ) (2024-10-24T06:47:28Z) - Feature Density Estimation for Out-of-Distribution Detection via Normalizing Flows [7.91363551513361]
アウト・オブ・ディストリビューション(OOD)検出は,オープンワールド環境での学習システムの安全な配置において重要な課題である。
我々は、OODサンプル選択における研究者バイアスを回避するため、OODデータへの露出を必要としない、完全に教師なしのアプローチを提案する。
これは、任意の事前訓練されたモデルに適用可能なポストホック法であり、密度閾値による分布外検出を行うために、軽量な補助正規化フローモデルを訓練する。
論文 参考訳(メタデータ) (2024-02-09T16:51:01Z) - Unleashing Mask: Explore the Intrinsic Out-of-Distribution Detection
Capability [70.72426887518517]
Out-of-Distribution(OOD)検出は、機械学習モデルを現実世界のアプリケーションにデプロイする際に、セキュアAIの必須の側面である。
本稿では,IDデータを用いた学習モデルのOOD識別能力を復元する新しい手法であるUnleashing Maskを提案する。
本手法では, マスクを用いて記憶した非定型サンプルを抽出し, モデルを微調整するか, 導入したマスクでプルーする。
論文 参考訳(メタデータ) (2023-06-06T14:23:34Z) - Free Lunch for Generating Effective Outlier Supervision [46.37464572099351]
本稿では, ほぼ現実的な外乱監視を実現するための超効率的な手法を提案する。
提案したtextttBayesAug は,従来の方式に比べて偽陽性率を 12.50% 以上削減する。
論文 参考訳(メタデータ) (2023-01-17T01:46:45Z) - Provably Robust Detection of Out-of-distribution Data (almost) for free [124.14121487542613]
ディープニューラルネットワークは、アウト・オブ・ディストリビューション(OOD)データに対する高い過度な予測を生成することが知られている。
本稿では,認証可能なOOD検出器を標準分類器と組み合わせてOOD認識分類器を提案する。
このようにして、我々は2つの世界のベストを達成している。OOD検出は、分布内に近いOODサンプルであっても、予測精度を損なうことなく、非操作型OODデータに対する最先端のOOD検出性能に近接する。
論文 参考訳(メタデータ) (2021-06-08T11:40:49Z) - Learn what you can't learn: Regularized Ensembles for Transductive
Out-of-distribution Detection [76.39067237772286]
ニューラルネットワークの現在のアウト・オブ・ディストリビューション(OOD)検出アルゴリズムは,様々なOOD検出シナリオにおいて不満足な結果をもたらすことを示す。
本稿では,テストデータのバッチを観察した後に検出方法を調整することで,このような「ハード」なOODシナリオがいかに有用かを検討する。
本稿では,テストデータと正規化に人工ラベリング手法を用いて,テストバッチ内のOODサンプルに対してのみ矛盾予測を生成するモデルのアンサンブルを求める手法を提案する。
論文 参考訳(メタデータ) (2020-12-10T16:55:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。