論文の概要: Beyond Perceptual Distances: Rethinking Disparity Assessment for Out-of-Distribution Detection with Diffusion Models
- arxiv url: http://arxiv.org/abs/2409.10094v2
- Date: Tue, 19 Nov 2024 02:55:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-20 13:34:24.055086
- Title: Beyond Perceptual Distances: Rethinking Disparity Assessment for Out-of-Distribution Detection with Diffusion Models
- Title(参考訳): 知覚距離を超えて:拡散モデルを用いた分布外検出のための分散度評価の再考
- Authors: Kun Fang, Qinghua Tao, Zuopeng Yang, Xiaolin Huang, Jie Yang,
- Abstract要約: Out-of-Distribution (OoD) 検出は、与えられたサンプルが分類器アンダープロテクションのトレーニング分布からのものであるかどうかを正当化することを目的としている。
DMベースの手法は、この分野に新たな洞察をもたらすが、未調査のままである。
本研究は、DM法における最先端検出性能を広範囲にわたる実験で実証した。
- 参考スコア(独自算出の注目度): 28.96695036746856
- License:
- Abstract: Out-of-Distribution (OoD) detection aims to justify whether a given sample is from the training distribution of the classifier-under-protection, i.e., In-Distribution (InD), or from OoD. Diffusion Models (DMs) are recently utilized in OoD detection by using the perceptual distances between the given image and its DM generation. DM-based methods bring fresh insights to the field, yet remain under-explored. In this work, we point out two main limitations in DM-based OoD detection methods: (i) the perceptual metrics on the disparities between the given sample and its generation are devised only at human-perceived levels, ignoring the abstract or high-level patterns that help better reflect the intrinsic disparities in distribution; (ii) only the raw image contents are taken to measure the disparities, while other representations, i.e., the features and probabilities from the classifier-under-protection, are easy to access at hand but are ignored. To this end, our proposed detection framework goes beyond the perceptual distances and looks into the deep representations from the classifier-under-protection with our novel metrics devised correspondingly, leading to more informative disparity assessments between InD and OoD. An anomaly-removal strategy is integrated to remove the abnormal OoD information in the generation, further enhancing the distinctiveness of disparities. Our work has demonstrated state-of-the-art detection performances among DM-based methods in extensive experiments.
- Abstract(参考訳): アウト・オブ・ディストリビューション(OoD)検出は、与えられたサンプルが分類器・アンダー・プロテクト(In-Distribution)のトレーニング分布、すなわちIn-Distribution(InD)、OoDからであるかどうかを正当化することを目的としている。
拡散モデル(DM)は、最近、与えられた画像とDM生成との知覚距離を用いて、OoD検出に活用されている。
DMベースの手法は、この分野に新たな洞察をもたらすが、未調査のままである。
本稿では,DMに基づくOoD検出法の主な2つの限界を指摘する。
(i)本質的な分布の相違をよりよく反映する抽象的・高レベルのパターンを無視して、そのサンプルと生成の相違に関する知覚的指標を、人間の知覚レベルでのみ考案する。
二 原画像の内容のみを計測し、他の表現、すなわち分類器による特徴及び確率を手軽にアクセスできるが無視する。
この目的のために,提案する検出フレームワークは知覚距離を超えて,新たに考案した指標を用いて分類器の深部表現を探索し,インダストリアル・インダストリアル・インダストリアル・インダストリアル・インダストリアル・インダストリアル・インダストリアル・インダストリアル・インダストリアル・インダストリアル・インダストリアル・インダストリアル・インダストリアル・インダストリアル・インダストリアル・インダストリアル・インダストリアル・インダストリアル・インダストリアル・インダストリアル・インダストリアル・インダストリアル・インダストリアル・インダストリアル・インダストリアル・インダストリアル・インダクト)。
異常除去戦略を統合して、発生中の異常なOoD情報を除去し、さらに相違点の識別性を高める。
本研究は、DM法における最先端検出性能を広範囲にわたる実験で実証した。
関連論文リスト
- GLAD: Towards Better Reconstruction with Global and Local Adaptive Diffusion Models for Unsupervised Anomaly Detection [60.78684630040313]
拡散モデルは、特定のノイズを付加したテスト画像の通常の画像を再構成する傾向がある。
世界的視点から見ると、異なる異常による画像再構成の難しさは不均一である。
本稿では,非教師付き異常検出のためのグローバルかつ局所的な適応拡散モデル(GLADと略す)を提案する。
論文 参考訳(メタデータ) (2024-06-11T17:27:23Z) - FlowSDF: Flow Matching for Medical Image Segmentation Using Distance Transforms [60.195642571004804]
署名された距離関数(SDF)を表す画像誘導型条件付きフローマッチングフレームワークであるFlowSDFを提案する。
SDFの条件分布の確率パスに直接関係するベクトル場を学習することにより、セグメント化マスクの分布から正確にサンプリングすることができる。
論文 参考訳(メタデータ) (2024-05-28T11:47:12Z) - Membership Inference on Text-to-Image Diffusion Models via Conditional Likelihood Discrepancy [36.156856772794065]
テキスト・画像拡散モデルにおける条件付きオーバーフィッティング現象を提案する。
提案手法は, 各種データおよびデータセットのスケールにおいて, 従来手法よりも大幅に優れていた。
論文 参考訳(メタデータ) (2024-05-23T17:09:51Z) - Theoretical Insights for Diffusion Guidance: A Case Study for Gaussian
Mixture Models [59.331993845831946]
拡散モデルは、所望の特性に向けてサンプル生成を操るために、スコア関数にタスク固有の情報を注入することの恩恵を受ける。
本稿では,ガウス混合モデルの文脈における拡散モデルに対する誘導の影響を理解するための最初の理論的研究を提供する。
論文 参考訳(メタデータ) (2024-03-03T23:15:48Z) - Projection Regret: Reducing Background Bias for Novelty Detection via
Diffusion Models [72.07462371883501]
本研究では,非意味情報のバイアスを緩和する効率的な新規性検出手法であるemphProjection Regret(PR)を提案する。
PRは、テスト画像とその拡散ベースの投影の間の知覚距離を計算し、異常を検出する。
拡張実験により、PRは生成モデルに基づく新規性検出手法の先行技術よりも有意なマージンで優れていることが示された。
論文 参考訳(メタデータ) (2023-12-05T09:44:47Z) - SDDM: Score-Decomposed Diffusion Models on Manifolds for Unpaired
Image-to-Image Translation [96.11061713135385]
本研究は,画像生成時の絡み合った分布を明示的に最適化する,新しいスコア分解拡散モデルを提案する。
我々は、スコア関数の精製部分とエネルギー誘導を等しくし、多様体上の多目的最適化を可能にする。
SDDMは既存のSBDMベースの手法よりも優れており、I2Iベンチマークでは拡散ステップがはるかに少ない。
論文 参考訳(メタデータ) (2023-08-04T06:21:57Z) - Exposing the Fake: Effective Diffusion-Generated Images Detection [14.646957596560076]
本稿では拡散生成画像検出(SeDID)のためのステップワイド誤差と呼ばれる新しい検出法を提案する。
SeDIDは拡散モデルのユニークな特性、すなわち決定論的逆転と決定論的逆退誤差を利用する。
我々の研究は拡散モデル生成画像の識別に重要な貢献をしており、人工知能のセキュリティ分野における重要なステップとなっている。
論文 参考訳(メタデータ) (2023-07-12T16:16:37Z) - DIRE for Diffusion-Generated Image Detection [128.95822613047298]
拡散再構成誤り(DIRE)という新しい表現を提案する。
DIREは、予め訓練された拡散モデルにより、入力画像とその再構成画像間の誤差を測定する。
DIREは生成されたイメージと実際のイメージを区別するためのブリッジとして機能する、というヒントを提供する。
論文 参考訳(メタデータ) (2023-03-16T13:15:03Z) - Structured Uncertainty in the Observation Space of Variational
Autoencoders [20.709989481734794]
画像合成において、そのような分布からのサンプリングは、非相関な画素ノイズを伴う空間的非コヒーレントな結果を生成する。
低ランクパラメータ化により空間依存性を符号化する観測空間の代替モデルを提案する。
画素単位の独立分布とは対照的に,本サンプルは複数の可算出力の予測を可能にする平均値から意味論的に有意な変動を含むと考えられる。
論文 参考訳(メタデータ) (2022-05-25T07:12:50Z) - Exploring the Intrinsic Probability Distribution for Hyperspectral
Anomaly Detection [9.653976364051564]
超スペクトル異常検出のための原データにおける背景と異常の両方の固有分布を探索する新しい確率分布表現検出器(pdrd)を提案する。
提案手法の性能を評価するために, 4つの実データ集合の実験を行った。
論文 参考訳(メタデータ) (2021-05-14T11:42:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。