論文の概要: InpDiffusion: Image Inpainting Localization via Conditional Diffusion Models
- arxiv url: http://arxiv.org/abs/2501.02816v1
- Date: Mon, 06 Jan 2025 07:32:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-07 17:08:54.032181
- Title: InpDiffusion: Image Inpainting Localization via Conditional Diffusion Models
- Title(参考訳): InpDiffusion:条件付き拡散モデルによる画像の局所化
- Authors: Kai Wang, Shaozhang Niu, Qixian Hao, Jiwei Zhang,
- Abstract要約: 現在のIIL法は2つの大きな課題に直面している。
拡散モデルを用いた条件付きマスク生成タスクとしてIILを扱う新しいパラダイムを提案する。
我々の手法であるInpDiffusionは、画像意味条件の統合によって強化された復調過程を利用して、予測を段階的に洗練する。
- 参考スコア(独自算出の注目度): 10.213390634031049
- License:
- Abstract: As artificial intelligence advances rapidly, particularly with the advent of GANs and diffusion models, the accuracy of Image Inpainting Localization (IIL) has become increasingly challenging. Current IIL methods face two main challenges: a tendency towards overconfidence, leading to incorrect predictions; and difficulty in detecting subtle tampering boundaries in inpainted images. In response, we propose a new paradigm that treats IIL as a conditional mask generation task utilizing diffusion models. Our method, InpDiffusion, utilizes the denoising process enhanced by the integration of image semantic conditions to progressively refine predictions. During denoising, we employ edge conditions and introduce a novel edge supervision strategy to enhance the model's perception of edge details in inpainted objects. Balancing the diffusion model's stochastic sampling with edge supervision of tampered image regions mitigates the risk of incorrect predictions from overconfidence and prevents the loss of subtle boundaries that can result from overly stochastic processes. Furthermore, we propose an innovative Dual-stream Multi-scale Feature Extractor (DMFE) for extracting multi-scale features, enhancing feature representation by considering both semantic and edge conditions of the inpainted images. Extensive experiments across challenging datasets demonstrate that the InpDiffusion significantly outperforms existing state-of-the-art methods in IIL tasks, while also showcasing excellent generalization capabilities and robustness.
- Abstract(参考訳): 人工知能が急速に進歩し、特にGANや拡散モデルが出現すると、画像塗装局所化(IIL)の精度はますます困難になっている。
現在のIIL法では、不正確な予測につながる過信傾向と、塗装画像における微妙な改ざん境界の検出が困難という2つの主な課題に直面している。
そこで本研究では,IILを拡散モデルを用いた条件付きマスク生成タスクとして扱う新しいパラダイムを提案する。
我々の手法であるInpDiffusionは、画像意味条件の統合によって強化された復調過程を利用して、予測を段階的に洗練する。
装飾中、我々はエッジ条件を採用し、塗装された物体のエッジ詳細に対するモデルの認識を高めるための新しいエッジ監視戦略を導入する。
拡散モデルの確率的サンプリングと、改ざんされた画像領域のエッジ監視のバランスをとることで、不正確な予測が過信から軽減され、過度に確率的プロセスによって生じる微妙な境界の喪失を防止する。
さらに,マルチスケール特徴を抽出し,画像のセマンティック条件とエッジ条件を考慮し,特徴表現を向上するDMFE (Dual-stream Multi-scale Feature Extractor) を提案する。
挑戦的なデータセットにわたる大規模な実験により、InpDiffusionはIILタスクにおける既存の最先端メソッドを著しく上回り、優れた一般化能力と堅牢性を示している。
関連論文リスト
- VIPaint: Image Inpainting with Pre-Trained Diffusion Models via Variational Inference [5.852077003870417]
我々のVIPaint法は,提案手法の妥当性と多様性の両方において,従来の手法よりも優れていることを示す。
我々のVIPaint法は,提案手法の妥当性と多様性の両方において,従来の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-11-28T05:35:36Z) - Discrete Modeling via Boundary Conditional Diffusion Processes [29.95155303262501]
従来のアプローチは、離散データと継続的モデリングの相違に悩まされてきた。
本稿では,まず境界を先行分布として推定する2段階の前進過程を提案する。
次に前方軌道を再スケールして境界条件拡散モデルを構築する。
論文 参考訳(メタデータ) (2024-10-29T09:42:42Z) - Data Generation Scheme for Thermal Modality with Edge-Guided Adversarial Conditional Diffusion Model [10.539491614216839]
本稿では,エッジガイド条件拡散モデルと呼ばれる新しい手法を提案する。
可視画像から抽出したエッジ情報を平均化し、画素レベルで正確に整列された擬似熱画像を生成することを目的とする。
LLVIPの実験は、画像生成の品質の観点から、既存の最先端アプローチよりもECDMの方が優れていることを示した。
論文 参考訳(メタデータ) (2024-08-07T13:01:10Z) - ReNoise: Real Image Inversion Through Iterative Noising [62.96073631599749]
本研究では,操作数を増やすことなく,高い品質と操作率の逆転法を導入し,再現精度を向上する。
我々は,近年の高速化拡散モデルを含む様々なサンプリングアルゴリズムとモデルを用いて,Renoise手法の性能を評価する。
論文 参考訳(メタデータ) (2024-03-21T17:52:08Z) - Adv-Diffusion: Imperceptible Adversarial Face Identity Attack via Latent
Diffusion Model [61.53213964333474]
本稿では,生の画素空間ではなく,潜在空間における非知覚的対角的アイデンティティ摂動を生成できる統一的なフレームワークAdv-Diffusionを提案する。
具体的には,周囲のセマンティックな摂動を生成するために,個人性に敏感な条件付き拡散生成モデルを提案する。
設計された適応強度に基づく対向摂動アルゴリズムは、攻撃の伝達性とステルス性の両方を確保することができる。
論文 参考訳(メタデータ) (2023-12-18T15:25:23Z) - Exploiting Diffusion Prior for Generalizable Dense Prediction [85.4563592053464]
近年のテキスト・トゥ・イメージ(T2I)拡散モデルでは、既成の高密度予測器では予測できないことがある。
我々は,事前学習したT2Iモデルを用いたパイプラインDMPを,高密度予測タスクの先駆けとして導入する。
限られたドメインのトレーニングデータにもかかわらず、この手法は任意の画像に対して忠実に推定し、既存の最先端のアルゴリズムを超越する。
論文 参考訳(メタデータ) (2023-11-30T18:59:44Z) - Global Structure-Aware Diffusion Process for Low-Light Image Enhancement [64.69154776202694]
本稿では,低照度画像強調問題に対処する拡散型フレームワークについて検討する。
我々は、その固有のODE-軌道の正規化を提唱する。
実験により,提案手法は低照度化において優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2023-10-26T17:01:52Z) - Gradpaint: Gradient-Guided Inpainting with Diffusion Models [71.47496445507862]
Denoising Diffusion Probabilistic Models (DDPM) は近年,条件付きおよび非条件付き画像生成において顕著な成果を上げている。
我々はGradPaintを紹介し、グローバルな一貫性のあるイメージに向けて世代を操る。
我々は、様々なデータセットで訓練された拡散モデルによく適応し、現在最先端の教師付きおよび教師なしの手法を改善している。
論文 参考訳(メタデータ) (2023-09-18T09:36:24Z) - How to Trust Your Diffusion Model: A Convex Optimization Approach to
Conformal Risk Control [9.811982443156063]
本稿では、画像から画像への回帰タスクに着目し、リスク制御予測セット(RCPS)の手順を一般化する。
提案手法は, 平均間隔長を最大化しつつ, 多次元リスク制御を可能にする新しい凸最適化手法に依存している。
本研究は,腹部の自然像とCTスキャンの2つの実世界の画像記述問題に対するアプローチについて述べる。
論文 参考訳(メタデータ) (2023-02-07T23:01:16Z) - Auto-regressive Image Synthesis with Integrated Quantization [55.51231796778219]
本稿では,条件付き画像生成のための多目的フレームワークを提案する。
CNNの帰納バイアスと自己回帰の強力なシーケンスモデリングが組み込まれている。
提案手法は,最先端技術と比較して,優れた多彩な画像生成性能を実現する。
論文 参考訳(メタデータ) (2022-07-21T22:19:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。