論文の概要: Diffusion Epistemic Uncertainty with Asymmetric Learning for Diffusion-Generated Image Detection
- arxiv url: http://arxiv.org/abs/2601.14625v1
- Date: Wed, 21 Jan 2026 03:57:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-22 21:27:50.226713
- Title: Diffusion Epistemic Uncertainty with Asymmetric Learning for Diffusion-Generated Image Detection
- Title(参考訳): 拡散生成画像検出のための非対称学習による拡散性てんかん不確かさ
- Authors: Yingsong Huang, Hui Guo, Jing Huang, Bing Bai, Qi Xiong,
- Abstract要約: 生成した画像を検出するための非対称学習(DEUA)を用いた拡散認識不確実性(Diffusion Epistemic Uncertainty)を提案する。
ラプラス近似を用いて拡散疫学不確実性(DEU)推定を導入し,拡散生成試料の多様体へのデータの近接性を評価する。
- 参考スコア(独自算出の注目度): 10.061197311881287
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The rapid progress of diffusion models highlights the growing need for detecting generated images. Previous research demonstrates that incorporating diffusion-based measurements, such as reconstruction error, can enhance the generalizability of detectors. However, ignoring the differing impacts of aleatoric and epistemic uncertainty on reconstruction error can undermine detection performance. Aleatoric uncertainty, arising from inherent data noise, creates ambiguity that impedes accurate detection of generated images. As it reflects random variations within the data (e.g., noise in natural textures), it does not help distinguish generated images. In contrast, epistemic uncertainty, which represents the model's lack of knowledge about unfamiliar patterns, supports detection. In this paper, we propose a novel framework, Diffusion Epistemic Uncertainty with Asymmetric Learning~(DEUA), for detecting diffusion-generated images. We introduce Diffusion Epistemic Uncertainty~(DEU) estimation via the Laplace approximation to assess the proximity of data to the manifold of diffusion-generated samples. Additionally, an asymmetric loss function is introduced to train a balanced classifier with larger margins, further enhancing generalizability. Extensive experiments on large-scale benchmarks validate the state-of-the-art performance of our method.
- Abstract(参考訳): 拡散モデルの急速な進歩は、生成した画像を検出する必要性の高まりを浮き彫りにする。
従来の研究では、再構成誤差などの拡散に基づく測定を組み込むことで、検出器の一般化性を高めることが示されている。
しかし, 再建誤差に対する動脈およびてんかんの不確実性の影響を無視することは, 検出性能を損なう可能性がある。
固有データノイズから生じるアレタリック不確実性は、生成した画像の正確な検出を妨げる曖昧さを生み出す。
データ内のランダムな変化(例えば自然テクスチャのノイズ)を反映するので、生成された画像の区別には役立ちません。
対照的に、不慣れなパターンに関するモデルの知識の欠如を表すてんかんの不確実性は、検出をサポートする。
本稿では,拡散像検出のための新しいフレームワークDEUAを提案する。
ラプラス近似を用いて拡散エピステミック不確かさ~(DEU)推定を導入し,拡散生成試料の多様体へのデータの近接性を評価する。
さらに、より広いマージンを持つバランスの取れた分類器を訓練するために、非対称な損失関数を導入し、さらに一般化性を高めた。
大規模ベンチマークの大規模な実験により,本手法の最先端性能が検証された。
関連論文リスト
- Explainable Synthetic Image Detection through Diffusion Timestep Ensembling [30.298198387824275]
本稿では,複数の雑音の時間ステップでアンサンブルを訓練することにより,中間雑音画像の特徴を直接活用する合成画像検出手法を提案する。
人間の理解を深めるために,メートル法に基づく説明文生成と改良モジュールを導入する。
本手法は, 正解率98.91%, 正解率95.89%, 正解率95.89%, 正解率98.91%, 正解率95.89%である。
論文 参考訳(メタデータ) (2025-03-08T13:04:20Z) - One-for-More: Continual Diffusion Model for Anomaly Detection [63.50488826645681]
異常検出法は拡散モデルを用いて任意の異常画像が与えられたときの正常サンプルの生成または再構成を行う。
われわれは,拡散モデルが「重度忠実幻覚」と「破滅的な忘れ」に悩まされていることを発見した。
本研究では,安定な連続学習を実現するために勾配予測を用いた連続拡散モデルを提案する。
論文 参考訳(メタデータ) (2025-02-27T07:47:27Z) - Epistemic Uncertainty for Generated Image Detection [107.62647907393377]
本稿では,創成モデルの時代において重要なセキュリティ問題に対処することを目的とした,てんかん不確実性によるAI生成画像検出のための新しいフレームワークを提案する。
我々の重要な洞察は、トレーニングとテストデータの分布の相違が、機械学習モデルのエピステマティック不確実性空間に顕著に現れていることに起因している。
論文 参考訳(メタデータ) (2024-12-08T11:32:25Z) - Projection Regret: Reducing Background Bias for Novelty Detection via
Diffusion Models [72.07462371883501]
本研究では,非意味情報のバイアスを緩和する効率的な新規性検出手法であるemphProjection Regret(PR)を提案する。
PRは、テスト画像とその拡散ベースの投影の間の知覚距離を計算し、異常を検出する。
拡張実験により、PRは生成モデルに基づく新規性検出手法の先行技術よりも有意なマージンで優れていることが示された。
論文 参考訳(メタデータ) (2023-12-05T09:44:47Z) - Exposing the Fake: Effective Diffusion-Generated Images Detection [14.646957596560076]
本稿では拡散生成画像検出(SeDID)のためのステップワイド誤差と呼ばれる新しい検出法を提案する。
SeDIDは拡散モデルのユニークな特性、すなわち決定論的逆転と決定論的逆退誤差を利用する。
我々の研究は拡散モデル生成画像の識別に重要な貢献をしており、人工知能のセキュリティ分野における重要なステップとなっている。
論文 参考訳(メタデータ) (2023-07-12T16:16:37Z) - DIRE for Diffusion-Generated Image Detection [128.95822613047298]
拡散再構成誤り(DIRE)という新しい表現を提案する。
DIREは、予め訓練された拡散モデルにより、入力画像とその再構成画像間の誤差を測定する。
DIREは生成されたイメージと実際のイメージを区別するためのブリッジとして機能する、というヒントを提供する。
論文 参考訳(メタデータ) (2023-03-16T13:15:03Z) - Robustness via Uncertainty-aware Cycle Consistency [44.34422859532988]
非ペア画像-画像間の変換とは、対応する画像対を使わずに画像間マッピングを学習することを指す。
既存の手法は、外乱や予測の不確実性にロバスト性を明示的にモデル化することなく決定論的マッピングを学習する。
不確実性を考慮した一般化適応サイクル一貫性(UGAC)に基づく新しい確率的手法を提案する。
論文 参考訳(メタデータ) (2021-10-24T15:33:21Z) - The Hidden Uncertainty in a Neural Networks Activations [105.4223982696279]
ニューラルネットワークの潜在表現の分布は、アウト・オブ・ディストリビューション(OOD)データの検出に成功している。
本研究は、この分布が、モデルの不確実性と相関しているかどうかを考察し、新しい入力に一般化する能力を示す。
論文 参考訳(メタデータ) (2020-12-05T17:30:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。