論文の概要: Projection Regret: Reducing Background Bias for Novelty Detection via
Diffusion Models
- arxiv url: http://arxiv.org/abs/2312.02615v1
- Date: Tue, 5 Dec 2023 09:44:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-06 16:02:48.786804
- Title: Projection Regret: Reducing Background Bias for Novelty Detection via
Diffusion Models
- Title(参考訳): 投影後悔:拡散モデルによる新奇性検出のための背景バイアスの低減
- Authors: Sungik Choi, Hankook Lee, Honglak Lee, Moontae Lee
- Abstract要約: 本研究では,非意味情報のバイアスを緩和する効率的な新規性検出手法であるemphProjection Regret(PR)を提案する。
PRは、テスト画像とその拡散ベースの投影の間の知覚距離を計算し、異常を検出する。
拡張実験により、PRは生成モデルに基づく新規性検出手法の先行技術よりも有意なマージンで優れていることが示された。
- 参考スコア(独自算出の注目度): 72.07462371883501
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Novelty detection is a fundamental task of machine learning which aims to
detect abnormal ($\textit{i.e.}$ out-of-distribution (OOD)) samples. Since
diffusion models have recently emerged as the de facto standard generative
framework with surprising generation results, novelty detection via diffusion
models has also gained much attention. Recent methods have mainly utilized the
reconstruction property of in-distribution samples. However, they often suffer
from detecting OOD samples that share similar background information to the
in-distribution data. Based on our observation that diffusion models can
\emph{project} any sample to an in-distribution sample with similar background
information, we propose \emph{Projection Regret (PR)}, an efficient novelty
detection method that mitigates the bias of non-semantic information. To be
specific, PR computes the perceptual distance between the test image and its
diffusion-based projection to detect abnormality. Since the perceptual distance
often fails to capture semantic changes when the background information is
dominant, we cancel out the background bias by comparing it against recursive
projections. Extensive experiments demonstrate that PR outperforms the prior
art of generative-model-based novelty detection methods by a significant
margin.
- Abstract(参考訳): 新規性検出は、異常(\textit{i.e.}$ out-of-distribution (OOD))を検知することを目的とした機械学習の基本課題である。
拡散モデルは最近、驚くべき生成結果を伴うデファクト標準生成フレームワークとして登場したため、拡散モデルによる新規検出も注目されている。
近年の手法は, 主にin-distributionサンプルの再構成特性を利用している。
しかし、分布内データと類似の背景情報を共有するoodサンプルの検出に苦しむことが多い。
拡散モデルが類似した背景情報を持つ分布内サンプルに対して任意のサンプルを生成できるという観察に基づいて,非意味情報のバイアスを緩和する効率的な新規性検出法であるemph{Projection Regret (PR)を提案する。
具体的には、PRがテスト画像と拡散ベースの投影との知覚距離を計算して異常を検出する。
背景情報が支配的である場合,知覚距離は意味変化を捉えないことが多いため,再帰的投影と比較することで背景バイアスをキャンセルする。
広範な実験により、prは生成モデルに基づくノベルティ検出手法の先行技術を上回ることが示される。
関連論文リスト
- Out-of-Distribution Detection with a Single Unconditional Diffusion Model [54.15132801131365]
アウト・オブ・ディストリビューション(OOD)検出は、異常サンプルを特定しようとする機械学習において重要なタスクである。
従来、教師なし手法はOOD検出に深い生成モデルを用いていた。
本稿では,単一モデルが多様なタスクに対してOOD検出を行うことができるかどうかを考察する。
論文 参考訳(メタデータ) (2024-05-20T08:54:03Z) - Improved off-policy training of diffusion samplers [93.66433483772055]
本研究では,非正規化密度やエネルギー関数を持つ分布からサンプルを抽出する拡散モデルの訓練問題について検討する。
シミュレーションに基づく変分法や非政治手法など,拡散構造推論手法のベンチマークを行った。
我々の結果は、過去の研究の主張に疑問を投げかけながら、既存のアルゴリズムの相対的な利点を浮き彫りにした。
論文 参考訳(メタデータ) (2024-02-07T18:51:49Z) - Data Attribution for Diffusion Models: Timestep-induced Bias in Influence Estimation [53.27596811146316]
拡散モデルは、以前の文脈における瞬間的な入出力関係ではなく、一連のタイムステップで操作する。
本稿では、この時間的ダイナミクスを取り入れた拡散トラクInについて、サンプルの損失勾配ノルムが時間ステップに大きく依存していることを確認する。
そこで我々はDiffusion-ReTracを再正規化適応として導入し、興味のあるサンプルを対象にしたトレーニングサンプルの検索を可能にする。
論文 参考訳(メタデータ) (2024-01-17T07:58:18Z) - Likelihood-based Out-of-Distribution Detection with Denoising Diffusion
Probabilistic Models [6.554019613111897]
拡散モデルに拡張できる可能性に基づくアウト・オブ・ディストリビューション検出法を示す。
ディープデノイング拡散モデルを用いたアウト・オブ・ディストリビューション検出のための新しい可能性比を提案する。
論文 参考訳(メタデータ) (2023-10-26T14:40:30Z) - Denoising diffusion models for out-of-distribution detection [2.113925122479677]
我々は,確率拡散モデル(DDPM)を自己エンコーダの復号化として活用する。
DDPMを用いてノイズレベルの範囲の入力を再構成し,結果の多次元再構成誤差を用いてアウト・オブ・ディストリビューション入力を分類する。
論文 参考訳(メタデータ) (2022-11-14T20:35:11Z) - Anomaly Detection with Test Time Augmentation and Consistency Evaluation [13.709281244889691]
本稿では,TTA-AD(Test Time Augmentation Anomaly Detection)と呼ばれる簡易かつ効果的な異常検出アルゴリズムを提案する。
我々は、分散データよりもトレーニングされたネットワーク上でのオリジナルバージョンと拡張バージョンについて、分散データの方が一貫性のある予測を楽しむことを観察した。
様々な高解像度画像ベンチマークデータセットの実験は、TTA-ADが同等またはより良い検出性能を達成することを示した。
論文 参考訳(メタデータ) (2022-06-06T04:27:06Z) - Fake It Till You Make It: Near-Distribution Novelty Detection by
Score-Based Generative Models [54.182955830194445]
既存のモデルは、いわゆる"近く分布"設定で失敗するか、劇的な低下に直面します。
本稿では, スコアに基づく生成モデルを用いて, 合成近分布異常データを生成することを提案する。
本手法は,9つのノベルティ検出ベンチマークにおいて,近分布ノベルティ検出を6%改善し,最先端のノベルティ検出を1%から5%パスする。
論文 参考訳(メタデータ) (2022-05-28T02:02:53Z) - Unsupervised Lesion Detection via Image Restoration with a Normative
Prior [6.495883501989547]
本稿では,ネットワークをベースとした事前分布を規範分布とし,MAP推定を用いて画素単位で病変を検出する確率モデルを提案する。
脳MRIにおけるグリオーマと脳卒中病変の実験は、提案手法が最先端の教師なし手法よりかなり優れていることを示している。
論文 参考訳(メタデータ) (2020-04-30T18:03:18Z) - Unsupervised Anomaly Detection with Adversarial Mirrored AutoEncoders [51.691585766702744]
本稿では,識別器のミラー化ワッサースタイン損失を利用して,よりセマンティックレベルの再構築を行う逆自動エンコーダの変種を提案する。
我々は,再建基準の代替として,異常スコアの代替尺度を提案した。
提案手法は,OOD検出ベンチマークにおける異常検出の最先端手法よりも優れている。
論文 参考訳(メタデータ) (2020-03-24T08:26:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。