論文の概要: Refining Visual Artifacts in Diffusion Models via Explainable AI-based Flaw Activation Maps
- arxiv url: http://arxiv.org/abs/2512.08774v1
- Date: Tue, 09 Dec 2025 16:30:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-10 22:28:08.046547
- Title: Refining Visual Artifacts in Diffusion Models via Explainable AI-based Flaw Activation Maps
- Title(参考訳): 説明可能なAIベースのきず活性化マップによる拡散モデルにおける視覚アーチファクトの精製
- Authors: Seoyeon Lee, Gwangyeol Yu, Chaewon Kim, Jonghyuk Park,
- Abstract要約: 人工物や非現実的な領域を検知して画像生成品質を高めるフレームワークである自己精製拡散を提案する。
このフレームワークは、説明可能な人工知能(XAI)ベースの欠陥ハイライトを使用して、人工物や非現実的な領域を識別する欠陥活性化マップ(FAM)を生成する。
- 参考スコア(独自算出の注目度): 8.07672704792024
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Diffusion models have achieved remarkable success in image synthesis. However, addressing artifacts and unrealistic regions remains a critical challenge. We propose self-refining diffusion, a novel framework that enhances image generation quality by detecting these flaws. The framework employs an explainable artificial intelligence (XAI)-based flaw highlighter to produce flaw activation maps (FAMs) that identify artifacts and unrealistic regions. These FAMs improve reconstruction quality by amplifying noise in flawed regions during the forward process and by focusing on these regions during the reverse process. The proposed approach achieves up to a 27.3% improvement in Fréchet inception distance across various diffusion-based models, demonstrating consistently strong performance on diverse datasets. It also shows robust effectiveness across different tasks, including image generation, text-to-image generation, and inpainting. These results demonstrate that explainable AI techniques can extend beyond interpretability to actively contribute to image refinement. The proposed framework offers a versatile and effective approach applicable to various diffusion models and tasks, significantly advancing the field of image synthesis.
- Abstract(参考訳): 拡散モデルは画像合成において顕著な成功を収めた。
しかし、人工物や非現実的な領域に対処することは依然として重要な課題である。
本稿では,これらの欠陥を検知して画像生成品質を向上させる新しいフレームワークである自己精製拡散を提案する。
このフレームワークは、説明可能な人工知能(XAI)ベースの欠陥ハイライトを使用して、人工物や非現実的な領域を識別する欠陥活性化マップ(FAM)を生成する。
これらのFAMは、前処理中に欠陥領域のノイズを増幅し、逆処理中にこれらの領域に集中することにより、復元品質を向上させる。
提案手法は,様々な拡散モデル間のフレシェ開始距離を最大27.3%改善し,多様なデータセットに対して一貫して強い性能を示す。
また、画像生成、テキスト・ツー・イメージ生成、塗装など、さまざまなタスクにまたがる堅牢な効果を示す。
これらの結果は、説明可能なAI技術が解釈可能性を超えて画像改善に積極的に貢献できることを実証している。
提案するフレームワークは,様々な拡散モデルやタスクに適用可能な汎用的で効果的なアプローチを提供し,画像合成の分野を著しく前進させる。
関連論文リスト
- Detecting AI-Generated Images via Diffusion Snap-Back Reconstruction: A Forensic Approach [0.0]
従来のディープフェイク検出方法は、Stable DiffusionやDALL-Eのようなテキストと画像のシステムでは失敗する。
本稿では,多強度画像再構成を応用した拡散型法科学フレームワークを提案する。
論文 参考訳(メタデータ) (2025-11-01T01:35:54Z) - BUFF: Bayesian Uncertainty Guided Diffusion Probabilistic Model for Single Image Super-Resolution [19.568467335629094]
ベイジアン不確実性誘導拡散確率モデル(BUFF)を紹介する。
BUFFは、ハイレゾな不確実性マスクを生成するためにベイズネットワークを組み込むことで、自分自身を区別する。
複雑なテクスチャと細部が特徴の領域において、人工物やぼやけを著しく軽減する。
論文 参考訳(メタデータ) (2025-04-04T14:43:45Z) - Unpaired Deblurring via Decoupled Diffusion Model [55.21345354747609]
UID-Diffは,未知領域における劣化性能の向上を目的とした生成拡散モデルである。
構造的特徴とぼかしパターン抽出器を別々に用いて, 抽出した特徴は, 合成データに対する教師付きデブロアリングタスクと教師なしのぼかし転送タスクに使用される。
実世界のデータセットの実験では、UID-Diffが既存の最先端の手法よりも、ぼやけた除去と構造保存に優れていることが示されている。
論文 参考訳(メタデータ) (2025-02-03T17:00:40Z) - Advancing Diffusion Models: Alias-Free Resampling and Enhanced Rotational Equivariance [0.0]
拡散モデルは、モデルによって引き起こされたアーティファクトと、画像の忠実性に制限された安定性によって、依然として挑戦されている。
拡散モデルのUNetアーキテクチャにエイリアスフリー再サンプリング層を統合することを提案する。
CIFAR-10, MNIST, MNIST-Mなどのベンチマークデータを用いた実験の結果, 画像品質が一貫した向上を示した。
論文 参考訳(メタデータ) (2024-11-14T04:23:28Z) - Bi-LORA: A Vision-Language Approach for Synthetic Image Detection [14.448350657613364]
生成逆数ネットワーク(GAN)や拡散モデル(DM)のような深層画像合成技術は、非常に現実的な画像を生成する時代に定着してきた。
本稿では、視覚言語モデル(VLM)のゼロショット特性と相まって、視覚と言語の間の強力な収束能力から着想を得る。
我々は,VLMと低ランク適応(LORA)チューニング技術を組み合わせたBi-LORAと呼ばれる革新的な手法を導入し,未知のモデル生成画像に対する合成画像検出の精度を向上させる。
論文 参考訳(メタデータ) (2024-04-02T13:54:22Z) - Steerable Conditional Diffusion for Out-of-Distribution Adaptation in Medical Image Reconstruction [75.91471250967703]
我々は、ステアブル条件拡散と呼ばれる新しいサンプリングフレームワークを導入する。
このフレームワークは、利用可能な測定によって提供される情報のみに基づいて、画像再構成と並行して拡散モデルを適用する。
様々な画像モダリティにまたがるアウト・オブ・ディストリビューション性能の大幅な向上を実現した。
論文 参考訳(メタデータ) (2023-08-28T08:47:06Z) - Diffusion Models for Image Restoration and Enhancement: A Comprehensive Survey [73.86861112002593]
本稿では,近年の拡散モデルに基づく画像復元手法について概観する。
我々は、赤外線とブラインド/現実世界の両方で拡散モデルを用いて、革新的なデザインを分類し、強調する。
本稿では,拡散モデルに基づくIRの今後の研究に向けた5つの可能性と課題を提案する。
論文 参考訳(メタデータ) (2023-08-18T08:40:38Z) - DiffDis: Empowering Generative Diffusion Model with Cross-Modal
Discrimination Capability [75.9781362556431]
本稿では,拡散過程下での1つのフレームワークに,モダクティブと差別的事前学習を統一するDiffDisを提案する。
DiffDisは画像生成タスクと画像テキスト識別タスクの両方において単一タスクモデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-08-18T05:03:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。