論文の概要: RDDPM: Robust Denoising Diffusion Probabilistic Model for Unsupervised Anomaly Segmentation
- arxiv url: http://arxiv.org/abs/2508.02903v1
- Date: Mon, 04 Aug 2025 21:10:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-06 18:18:55.683455
- Title: RDDPM: Robust Denoising Diffusion Probabilistic Model for Unsupervised Anomaly Segmentation
- Title(参考訳): RDDPM: 教師なし異常セグメンテーションのための拡散確率モデル
- Authors: Mehrdad Moradi, Kamran Paynabar,
- Abstract要約: 拡散モデルの最近の進歩は、教師なしの異常セグメンテーションにおいて大きな成功を収めている。
本研究では, 汚染された(正規データと異常データの混合)データのみを利用できるシナリオに対して, 頑健な拡散モデルを提案する。
我々の手法は既存の拡散に基づくアプローチよりも優れており、最大8.08%のAUROCと10.37%のAUPRCをMVTecデータセット上で達成する。
- 参考スコア(独自算出の注目度): 1.4103597881677858
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advancements in diffusion models have demonstrated significant success in unsupervised anomaly segmentation. For anomaly segmentation, these models are first trained on normal data; then, an anomalous image is noised to an intermediate step, and the normal image is reconstructed through backward diffusion. Unlike traditional statistical methods, diffusion models do not rely on specific assumptions about the data or target anomalies, making them versatile for use across different domains. However, diffusion models typically assume access to normal data for training, limiting their applicability in realistic settings. In this paper, we propose novel robust denoising diffusion models for scenarios where only contaminated (i.e., a mix of normal and anomalous) unlabeled data is available. By casting maximum likelihood estimation of the data as a nonlinear regression problem, we reinterpret the denoising diffusion probabilistic model through a regression lens. Using robust regression, we derive a robust version of denoising diffusion probabilistic models. Our novel framework offers flexibility in constructing various robust diffusion models. Our experiments show that our approach outperforms current state of the art diffusion models, for unsupervised anomaly segmentation when only contaminated data is available. Our method outperforms existing diffusion-based approaches, achieving up to 8.08\% higher AUROC and 10.37\% higher AUPRC on MVTec datasets. The implementation code is available at: https://github.com/mehrdadmoradi124/RDDPM
- Abstract(参考訳): 拡散モデルの最近の進歩は、教師なしの異常セグメンテーションにおいて大きな成功を収めている。
異常セグメンテーションの場合、これらのモデルはまず通常のデータに基づいて訓練され、その後、異常画像は中間ステップにノイズを受け、正常画像は後方拡散によって再構成される。
従来の統計手法とは異なり、拡散モデルはデータやターゲットの異常に関する特定の仮定に頼らず、異なる領域にまたがって使用するために汎用的である。
しかしながら、拡散モデルは通常、トレーニングのための通常のデータへのアクセスを前提としており、現実的な設定で適用性を制限する。
本稿では,汚染された(正規データと異常データの混合)データのみを利用できるシナリオに対して,新しいロバストなデノナイズ拡散モデルを提案する。
非線形回帰問題としてデータの最大推定値をキャストすることにより、回帰レンズを通して拡散確率モデルを復調する。
頑健な回帰モデルを用いて拡散確率モデルをデノナイズする頑健なバージョンを導出する。
我々の新しいフレームワークは、様々な堅牢な拡散モデルを構築する際の柔軟性を提供する。
提案手法は, 汚染データのみが利用可能である場合, 教師なしの異常セグメンテーションにおいて, 現状の拡散モデルより優れていることを示す。
MVTecデータセット上では,AUROCが8.08倍,AUPRCが10.37倍に向上する。
実装コードは:https://github.com/mehrdadmoradi124/RDDPM
関連論文リスト
- Diffusion Beats Autoregressive in Data-Constrained Settings [46.06809870740238]
自己回帰(AR)モデルは長い間、大きな言語モデルのランドスケープを支配してきた。
近年,ARモデルよりもアドバンテージが低いものの,拡散型言語モデルが将来性のある選択肢として浮上している。
論文 参考訳(メタデータ) (2025-07-21T17:59:57Z) - DIVE: Inverting Conditional Diffusion Models for Discriminative Tasks [79.50756148780928]
本稿では,事前学習した拡散モデルを用いて識別課題を遂行する問題について検討する。
我々は、事前学習されたレイアウト・ツー・イメージ拡散モデルの「反転」により、事前学習した凍結生成拡散モデルの識別能力を分類タスクからより複雑なオブジェクト検出タスクに拡張する。
論文 参考訳(メタデータ) (2025-04-24T05:13:27Z) - One-for-More: Continual Diffusion Model for Anomaly Detection [63.50488826645681]
異常検出法は拡散モデルを用いて任意の異常画像が与えられたときの正常サンプルの生成または再構成を行う。
われわれは,拡散モデルが「重度忠実幻覚」と「破滅的な忘れ」に悩まされていることを発見した。
本研究では,安定な連続学習を実現するために勾配予測を用いた連続拡散モデルを提案する。
論文 参考訳(メタデータ) (2025-02-27T07:47:27Z) - Continuous Diffusion Model for Language Modeling [57.396578974401734]
離散データに対する既存の連続拡散モデルは、離散的アプローチと比較して性能が限られている。
本稿では,下層の分類分布の幾何学を組み込んだ言語モデリングのための連続拡散モデルを提案する。
論文 参考訳(メタデータ) (2025-02-17T08:54:29Z) - A Mixture-Based Framework for Guiding Diffusion Models [19.83064246586143]
デノナイジング拡散モデルはベイズ逆問題(英語版)の分野において大きな進歩をもたらした。
近年のアプローチでは、事前学習した拡散モデルを用いて、そのような問題を広範囲に解決している。
本研究はこれらの中間分布の新たな混合近似を提案する。
論文 参考訳(メタデータ) (2025-02-05T16:26:06Z) - Constrained Diffusion Models via Dual Training [80.03953599062365]
拡散プロセスは、トレーニングデータセットのバイアスを反映したサンプルを生成する傾向がある。
所望の分布に基づいて拡散制約を付与し,制約付き拡散モデルを構築する。
本稿では,制約付き拡散モデルを用いて,目的と制約の最適なトレードオフを実現する混合データ分布から新しいデータを生成することを示す。
論文 参考訳(メタデータ) (2024-08-27T14:25:42Z) - GLAD: Towards Better Reconstruction with Global and Local Adaptive Diffusion Models for Unsupervised Anomaly Detection [60.78684630040313]
拡散モデルは、特定のノイズを付加したテスト画像の通常の画像を再構成する傾向がある。
世界的視点から見ると、異なる異常による画像再構成の難しさは不均一である。
本稿では,非教師付き異常検出のためのグローバルかつ局所的な適応拡散モデル(GLADと略す)を提案する。
論文 参考訳(メタデータ) (2024-06-11T17:27:23Z) - Amortizing intractable inference in diffusion models for vision, language, and control [89.65631572949702]
本稿では,p(mathbfx)$以前の拡散生成モデルとブラックボックス制約,あるいは関数$r(mathbfx)$からなるモデルにおいて,データ上の後部サンプルである $mathbfxsim prm post(mathbfx)propto p(mathbfx)r(mathbfx)$について検討する。
我々は,データフリー学習目標である相対軌道バランスの正しさを,サンプルから抽出した拡散モデルの訓練のために証明する。
論文 参考訳(メタデータ) (2024-05-31T16:18:46Z) - Multiple-Source Localization from a Single-Snapshot Observation Using Graph Bayesian Optimization [10.011338977476804]
単一スナップショット観測によるマルチソースのローカライゼーションは、その頻度が原因で特に重要となる。
現在の方法は典型的には欲求選択を利用しており、通常は1つの拡散モデルと結合する。
そこで本研究では,BOSouLというシミュレーション手法を用いて,サンプル効率を近似する手法を提案する。
論文 参考訳(メタデータ) (2024-03-25T14:46:24Z) - On Error Propagation of Diffusion Models [77.91480554418048]
DMのアーキテクチャにおける誤り伝播を数学的に定式化するための理論的枠組みを開発する。
累積誤差を正規化項として適用して誤差伝搬を低減する。
提案した正規化はエラーの伝播を低減し,バニラDMを大幅に改善し,以前のベースラインよりも優れていた。
論文 参考訳(メタデータ) (2023-08-09T15:31:17Z) - Information-Theoretic Diffusion [18.356162596599436]
拡散モデルのデノイングは密度モデリングや画像生成において大きな進歩をもたらした。
情報理論における古典的な結果にインスパイアされた拡散モデルのための新しい数学的基礎を導入する。
論文 参考訳(メタデータ) (2023-02-07T23:03:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。