論文の概要: GuidPaint: Class-Guided Image Inpainting with Diffusion Models
- arxiv url: http://arxiv.org/abs/2507.21627v1
- Date: Tue, 29 Jul 2025 09:36:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-30 17:08:55.963874
- Title: GuidPaint: Class-Guided Image Inpainting with Diffusion Models
- Title(参考訳): GuidPaint:拡散モデルによるクラスガイド画像の塗り絵
- Authors: Qimin Wang, Xinda Liu, Guohua Geng,
- Abstract要約: GuidPaintは、トレーニング不要でクラス誘導型画像インペイントフレームワークである。
GuidPaintは、定性評価と定量的評価の両方において、既存の文脈認識の塗り絵法よりも明らかに改善されていることを示す。
- 参考スコア(独自算出の注目度): 1.1902474395094222
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, diffusion models have been widely adopted for image inpainting tasks due to their powerful generative capabilities, achieving impressive results. Existing multimodal inpainting methods based on diffusion models often require architectural modifications and retraining, resulting in high computational cost. In contrast, context-aware diffusion inpainting methods leverage the model's inherent priors to adjust intermediate denoising steps, enabling high-quality inpainting without additional training and significantly reducing computation. However, these methods lack fine-grained control over the masked regions, often leading to semantically inconsistent or visually implausible content. To address this issue, we propose GuidPaint, a training-free, class-guided image inpainting framework. By incorporating classifier guidance into the denoising process, GuidPaint enables precise control over intermediate generations within the masked areas, ensuring both semantic consistency and visual realism. Furthermore, it integrates stochastic and deterministic sampling, allowing users to select preferred intermediate results and deterministically refine them. Experimental results demonstrate that GuidPaint achieves clear improvements over existing context-aware inpainting methods in both qualitative and quantitative evaluations.
- Abstract(参考訳): 近年, 画像インパインティングタスクの拡散モデルが広く採用されており, 優れた結果が得られている。
拡散モデルに基づく既存のマルチモーダル塗装法は、しばしばアーキテクチャの変更と再訓練を必要とし、計算コストが高い。
対照的に、文脈対応拡散塗装法は、モデル固有の先行手法を活用して、中間的なデノナイジングステップを調整し、追加のトレーニングなしで高品質なインペイントを可能にし、計算を著しく削減する。
しかし、これらの手法はマスクされた領域のきめ細かい制御を欠いており、しばしば意味的に一貫性のない、あるいは視覚的に不明瞭な内容に繋がる。
この問題に対処するため,トレーニング不要でクラス誘導型画像インペイントフレームワークであるGuidPaintを提案する。
GuidPaintは、分類器のガイダンスを認知プロセスに組み込むことで、マスキング領域内の中間世代を正確に制御し、セマンティック一貫性と視覚的リアリズムの両方を保証する。
さらに、確率的および決定論的サンプリングを統合し、ユーザーは好みの中間結果を選択し、決定論的にそれらを洗練することができる。
実験結果から,GuidPaintは,定性評価と定量的評価の両方において,既存の文脈対応塗装法よりも明確な改善を実現していることが示された。
関連論文リスト
- HarmonPaint: Harmonized Training-Free Diffusion Inpainting [58.870763247178495]
HarmonPaintは、拡散モデルの注意機構をシームレスに統合する、トレーニング不要な塗装フレームワークである。
自己注意の中でマスキング戦略を活用することで、HarmonPaintはモデルの再トレーニングや微調整なしに構造的忠実性を確保する。
論文 参考訳(メタデータ) (2025-07-22T16:14:35Z) - Towards Seamless Borders: A Method for Mitigating Inconsistencies in Image Inpainting and Outpainting [22.46566055053259]
拡散型塗布モデルにおける不一致問題に対処する2つの新しい手法を提案する。
まず,色不均衡を補正する修正変分オートエンコーダを導入する。
次に,拡散過程において生成した画像と既存の画像のブレンディングを改善するための2段階のトレーニング戦略を提案する。
論文 参考訳(メタデータ) (2025-06-14T15:02:56Z) - PrefPaint: Aligning Image Inpainting Diffusion Model with Human Preference [62.72779589895124]
画像インペイントのための拡散モデルと人間の審美基準との整合性を、強化学習フレームワークを用いて初めて試みる。
我々は、人間の好みを付加した約51,000枚の画像からなるデータセットで報酬モデルを訓練する。
画像拡張や3次元再構成などの下流タスクの塗装比較実験により, 提案手法の有効性が示された。
論文 参考訳(メタデータ) (2024-10-29T11:49:39Z) - Coherent and Multi-modality Image Inpainting via Latent Space Optimization [61.99406669027195]
PILOT(intextbfPainting vtextbfIa textbfOptextbfTimization)は、新しいテキストセマンティック中央化とテキストセマンティック保存損失に基づく最適化手法である。
本手法は,背景とのコヒーレンスを維持しつつ,ユーザが提供するプロンプトに対して高い忠実度を示す塗装領域を生成できる潜時空間を探索する。
論文 参考訳(メタデータ) (2024-07-10T19:58:04Z) - Uni-paint: A Unified Framework for Multimodal Image Inpainting with
Pretrained Diffusion Model [19.800236358666123]
マルチモーダル・インペイントのための統一フレームワークであるUni-paintを提案する。
Uni-paintはテキスト駆動、ストローク駆動、模範駆動のインペインティングなど、さまざまなガイダンスを提供する。
提案手法は,既存の単一モーダル手法に匹敵する結果が得られる。
論文 参考訳(メタデータ) (2023-10-11T06:11:42Z) - Gradpaint: Gradient-Guided Inpainting with Diffusion Models [71.47496445507862]
Denoising Diffusion Probabilistic Models (DDPM) は近年,条件付きおよび非条件付き画像生成において顕著な成果を上げている。
我々はGradPaintを紹介し、グローバルな一貫性のあるイメージに向けて世代を操る。
我々は、様々なデータセットで訓練された拡散モデルによく適応し、現在最先端の教師付きおよび教師なしの手法を改善している。
論文 参考訳(メタデータ) (2023-09-18T09:36:24Z) - GRIG: Few-Shot Generative Residual Image Inpainting [27.252855062283825]
そこで本研究では,高画質な残像塗装法を新たに提案する。
中心となる考え方は、特徴抽出のために畳み込みニューラルネットワーク(CNN)を組み込んだ反復的残留推論手法を提案することである。
また, 忠実なテクスチャと詳細な外観を創出するための, フォージェリーパッチ対逆訓練戦略を提案する。
論文 参考訳(メタデータ) (2023-04-24T12:19:06Z) - Perceptual Artifacts Localization for Inpainting [60.5659086595901]
そこで本研究では,知覚的アーティファクトの自動セグメンテーションの学習タスクを提案する。
データセット上で高度なセグメンテーションネットワークをトレーニングし、インペイントされた画像内のインペイントされたアーティファクトを確実にローカライズする。
また, 対象領域と対象領域全体との比率である知覚人工物比 (PAR) という新しい評価指標を提案する。
論文 参考訳(メタデータ) (2022-08-05T18:50:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。