論文の概要: HarmonPaint: Harmonized Training-Free Diffusion Inpainting
- arxiv url: http://arxiv.org/abs/2507.16732v1
- Date: Tue, 22 Jul 2025 16:14:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-23 21:34:14.199868
- Title: HarmonPaint: Harmonized Training-Free Diffusion Inpainting
- Title(参考訳): HarmonPaint:ハーモナイズドトレーニングフリー拡散塗装
- Authors: Ying Li, Xinzhe Li, Yong Du, Yangyang Xu, Junyu Dong, Shengfeng He,
- Abstract要約: HarmonPaintは、拡散モデルの注意機構をシームレスに統合する、トレーニング不要な塗装フレームワークである。
自己注意の中でマスキング戦略を活用することで、HarmonPaintはモデルの再トレーニングや微調整なしに構造的忠実性を確保する。
- 参考スコア(独自算出の注目度): 58.870763247178495
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing inpainting methods often require extensive retraining or fine-tuning to integrate new content seamlessly, yet they struggle to maintain coherence in both structure and style between inpainted regions and the surrounding background. Motivated by these limitations, we introduce HarmonPaint, a training-free inpainting framework that seamlessly integrates with the attention mechanisms of diffusion models to achieve high-quality, harmonized image inpainting without any form of training. By leveraging masking strategies within self-attention, HarmonPaint ensures structural fidelity without model retraining or fine-tuning. Additionally, we exploit intrinsic diffusion model properties to transfer style information from unmasked to masked regions, achieving a harmonious integration of styles. Extensive experiments demonstrate the effectiveness of HarmonPaint across diverse scenes and styles, validating its versatility and performance.
- Abstract(参考訳): 既存の塗装法は、新しいコンテンツをシームレスに統合するために広範囲な修練や微調整を必要とすることが多いが、塗装された地域と周囲の背景の間の構造と様式の一貫性を維持するのに苦労している。
これらの制約に触発されたHarmonPaintは、拡散モデルの注意機構とシームレスに統合し、学習形態を使わずに高品質で調和した画像の塗り込みを実現する、トレーニングフリーな塗り込みフレームワークである。
自己注意の中でマスキング戦略を活用することで、HarmonPaintはモデルの再トレーニングや微調整なしに構造的忠実性を確保する。
さらに, 固有拡散モデル特性を利用して, 未知の領域からマスキング領域へスタイル情報を伝達し, スタイルの調和的な統合を実現する。
大規模な実験では、さまざまなシーンやスタイルでHarmonPaintの有効性を実証し、その汎用性とパフォーマンスを検証する。
関連論文リスト
- Style Composition within Distinct LoRA modules for Traditional Art [21.954368353156546]
複数のスタイルを自然にブレンドするゼロショット拡散パイプラインを提案する。
我々は低騒音の潜伏者がより強いスタイル情報を持っているという事実を活用している。
ControlNetによる奥行きマップの条件付けを拡散フレームワークに組み込む。
論文 参考訳(メタデータ) (2025-07-16T07:36:07Z) - Towards Seamless Borders: A Method for Mitigating Inconsistencies in Image Inpainting and Outpainting [22.46566055053259]
拡散型塗布モデルにおける不一致問題に対処する2つの新しい手法を提案する。
まず,色不均衡を補正する修正変分オートエンコーダを導入する。
次に,拡散過程において生成した画像と既存の画像のブレンディングを改善するための2段階のトレーニング戦略を提案する。
論文 参考訳(メタデータ) (2025-06-14T15:02:56Z) - From Missing Pieces to Masterpieces: Image Completion with Context-Adaptive Diffusion [98.31811240195324]
ConFillは、各拡散ステップで生成された画像とオリジナル画像の差を小さくする新しいフレームワークである。
現行の手法より優れており、画像補完の新しいベンチマークが設定されている。
論文 参考訳(メタデータ) (2025-04-19T13:40:46Z) - Diffusion Models with Anisotropic Gaussian Splatting for Image Inpainting [0.0]
本研究では,拡散モデルと異方性ガウススプラッティングを組み合わせ,局所構造とグローバルコンテキストの両方を効果的に捉える新しい塗装法を提案する。
提案手法は最先端技術より優れ, 構造的整合性とテクスチャリアリズムを向上した視覚的可視性のある結果が得られる。
論文 参考訳(メタデータ) (2024-12-02T16:29:06Z) - ZePo: Zero-Shot Portrait Stylization with Faster Sampling [61.14140480095604]
本稿では,4つのサンプリングステップでコンテンツとスタイルの融合を実現する拡散モデルに基づく,インバージョンフリーなポートレートスタイリングフレームワークを提案する。
本稿では,一貫性機能における冗長な特徴をマージする機能統合戦略を提案し,注意制御の計算負荷を低減させる。
論文 参考訳(メタデータ) (2024-08-10T08:53:41Z) - Coherent and Multi-modality Image Inpainting via Latent Space Optimization [61.99406669027195]
PILOT(intextbfPainting vtextbfIa textbfOptextbfTimization)は、新しいテキストセマンティック中央化とテキストセマンティック保存損失に基づく最適化手法である。
本手法は,背景とのコヒーレンスを維持しつつ,ユーザが提供するプロンプトに対して高い忠実度を示す塗装領域を生成できる潜時空間を探索する。
論文 参考訳(メタデータ) (2024-07-10T19:58:04Z) - BrushNet: A Plug-and-Play Image Inpainting Model with Decomposed
Dual-Branch Diffusion [61.90969199199739]
BrushNetは、ピクセルレベルのマスク付きイメージ機能を事前訓練されたDMに埋め込むために設計された、新しいプラグアンドプレイデュアルブランチモデルである。
BrushNetは、画像品質、マスク領域保存、テキストコヒーレンスを含む7つの主要な指標で、既存のモデルよりも優れたパフォーマンスを実現している。
論文 参考訳(メタデータ) (2024-03-11T17:59:31Z) - FreePIH: Training-Free Painterly Image Harmonization with Diffusion
Model [19.170302996189335]
我々のFreePIH法は,フォアグラウンド画像スタイル転送のためのプラグインモジュールとしてデノナイズプロセスを利用する。
我々は,潜伏空間における前景オブジェクトの内容と安定性の整合性を強制するために,マルチスケール機能を活用している。
我々の手法は、代表的基準を大きなマージンで超えることができる。
論文 参考訳(メタデータ) (2023-11-25T04:23:49Z) - Uni-paint: A Unified Framework for Multimodal Image Inpainting with
Pretrained Diffusion Model [19.800236358666123]
マルチモーダル・インペイントのための統一フレームワークであるUni-paintを提案する。
Uni-paintはテキスト駆動、ストローク駆動、模範駆動のインペインティングなど、さまざまなガイダンスを提供する。
提案手法は,既存の単一モーダル手法に匹敵する結果が得られる。
論文 参考訳(メタデータ) (2023-10-11T06:11:42Z) - Gradpaint: Gradient-Guided Inpainting with Diffusion Models [71.47496445507862]
Denoising Diffusion Probabilistic Models (DDPM) は近年,条件付きおよび非条件付き画像生成において顕著な成果を上げている。
我々はGradPaintを紹介し、グローバルな一貫性のあるイメージに向けて世代を操る。
我々は、様々なデータセットで訓練された拡散モデルによく適応し、現在最先端の教師付きおよび教師なしの手法を改善している。
論文 参考訳(メタデータ) (2023-09-18T09:36:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。