論文の概要: Erase Diffusion: Empowering Object Removal Through Calibrating Diffusion Pathways
- arxiv url: http://arxiv.org/abs/2503.07026v1
- Date: Mon, 10 Mar 2025 08:06:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-11 15:51:42.010660
- Title: Erase Diffusion: Empowering Object Removal Through Calibrating Diffusion Pathways
- Title(参考訳): Erase Diffusion: 拡散経路の校正による物体除去の強化
- Authors: Yi Liu, Hao Zhou, Wenxiang Shang, Ran Lin, Benlei Cui,
- Abstract要約: Erase inpaintingは、周囲のコンテンツの全体的な一貫性を維持しながら、マスクされた領域内でターゲットオブジェクトを正確に除去することを目的としている。
オブジェクト除去の文脈において,標準拡散の潜在的なパワーを解放することを目的として,Eraase Diffusionと呼ばれる新しいEraase Diffusionを提案する。
提案したEraDiffは,OpenImages V5データセットの最先端性能を実現し,実世界のシナリオにおいて大きな優位性を示す。
- 参考スコア(独自算出の注目度): 13.08168394252538
- License:
- Abstract: Erase inpainting, or object removal, aims to precisely remove target objects within masked regions while preserving the overall consistency of the surrounding content. Despite diffusion-based methods have made significant strides in the field of image inpainting, challenges remain regarding the emergence of unexpected objects or artifacts. We assert that the inexact diffusion pathways established by existing standard optimization paradigms constrain the efficacy of object removal. To tackle these challenges, we propose a novel Erase Diffusion, termed EraDiff, aimed at unleashing the potential power of standard diffusion in the context of object removal. In contrast to standard diffusion, the EraDiff adapts both the optimization paradigm and the network to improve the coherence and elimination of the erasure results. We first introduce a Chain-Rectifying Optimization (CRO) paradigm, a sophisticated diffusion process specifically designed to align with the objectives of erasure. This paradigm establishes innovative diffusion transition pathways that simulate the gradual elimination of objects during optimization, allowing the model to accurately capture the intent of object removal. Furthermore, to mitigate deviations caused by artifacts during the sampling pathways, we develop a simple yet effective Self-Rectifying Attention (SRA) mechanism. The SRA calibrates the sampling pathways by altering self-attention activation, allowing the model to effectively bypass artifacts while further enhancing the coherence of the generated content. With this design, our proposed EraDiff achieves state-of-the-art performance on the OpenImages V5 dataset and demonstrates significant superiority in real-world scenarios.
- Abstract(参考訳): Erase inpainting(オブジェクト除去)は、周囲のコンテンツの全体的な一貫性を維持しながら、マスクされた領域内でターゲットオブジェクトを正確に除去することを目的としている。
拡散に基づく手法は画像の塗布の分野で大きな進歩を遂げてきたが、予期せぬ物体や人工物の出現に関する課題は依然として残っている。
既存の標準最適化パラダイムによって確立された不正確な拡散経路は、オブジェクト除去の有効性を制限していると断言する。
これらの課題に対処するために、オブジェクト除去の文脈において標準拡散のポテンシャルを解放することを目的とした、Eraase Diffusionと呼ばれる新しいEraase Diffusionを提案する。
標準拡散とは対照的に、EraDiffは最適化パラダイムとネットワークの両方に適応し、消去結果の一貫性と除去を改善する。
まず, 消去の目的に合わせた高度拡散プロセスであるCRO(Chain-Rectifying Optimization)パラダイムを導入する。
このパラダイムは、最適化中のオブジェクトの段階的除去をシミュレートする革新的な拡散遷移経路を確立し、モデルがオブジェクト除去の意図を正確に捉えることを可能にする。
さらに, サンプリング経路における工芸品の偏差を緩和するため, 簡易かつ効果的な自己修正注意機構(SRA)を開発した。
SRAは、自己アテンション活性化を変化させてサンプリング経路を校正し、生成したコンテンツのコヒーレンスをさらに高めながら、アーティファクトを効果的にバイパスすることができる。
この設計により、提案したEraDiffは、OpenImages V5データセット上で最先端のパフォーマンスを実現し、実世界のシナリオにおいて大きな優位性を示す。
関連論文リスト
- Attentive Eraser: Unleashing Diffusion Model's Object Removal Potential via Self-Attention Redirection Guidance [4.295971864740951]
Attentive Eraser は、安定かつ効果的な物体除去のために、事前訓練された拡散モデルを強化するチューニング不要な手法である。
本稿では、自己注意機構を再設計するASS(Attention Activation and Suppression)を紹介する。
また、ASSによる自己注意リダイレクトを利用して生成プロセスのガイドを行う自己注意リダイレクトガイダンス(SARG)についても紹介する。
論文 参考訳(メタデータ) (2024-12-17T14:56:59Z) - CLIPAway: Harmonizing Focused Embeddings for Removing Objects via Diffusion Models [16.58831310165623]
CLIPAwayは、CLIP埋め込みを活用して、前景要素を除外しながらバックグラウンドリージョンに集中する新しいアプローチである。
背景を優先する埋め込みを識別することで、塗装精度と品質を向上させる。
特別なトレーニングデータセットや高価な手作業によるアノテーションに依存する他の方法とは異なり、CLIPAwayは柔軟なプラグイン・アンド・プレイソリューションを提供する。
論文 参考訳(メタデータ) (2024-06-13T17:50:28Z) - DPMesh: Exploiting Diffusion Prior for Occluded Human Mesh Recovery [71.6345505427213]
DPMeshは、人間のメッシュリカバリを排除した革新的なフレームワークである。
これは、事前訓練されたテキスト・ツー・イメージ拡散モデルに埋め込まれた対象構造と空間的関係について、より深い拡散に乗じる。
論文 参考訳(メタデータ) (2024-04-01T18:59:13Z) - Erasing Undesirable Influence in Diffusion Models [51.225365010401006]
拡散モデルは高品質な画像を生成するのに非常に効果的であるが、NSFW(職場では安全ではない)コンテンツの意図しない生成のようなリスクを引き起こす。
本研究では,データに関連付けられた不要な情報を取り除き,保存データに対する拡散モデルの実用性を維持するために設計されたアルゴリズムであるEraseDiffを紹介する。
論文 参考訳(メタデータ) (2024-01-11T09:30:36Z) - D-SCo: Dual-Stream Conditional Diffusion for Monocular Hand-Held Object Reconstruction [74.49121940466675]
モノクローナルハンドヘルドオブジェクト再構成のためのCentroid-fixed dual-stream conditionalfusionを導入する。
まず、対象のセントロイドがずれることを避けるために、手動制約付きセントロイド固定パラダイムを用いる。
第2に、意味的および幾何学的に手動物体の相互作用をモデル化するための二重ストリームデノイザを導入する。
論文 参考訳(メタデータ) (2023-11-23T20:14:50Z) - Stable Diffusion For Aerial Object Detection [4.014524824655107]
本研究では,空中画像に適した合成データ拡張フレームワークを提案する。
セマンティックギャップを橋渡し、低ランク適応(LORA)で拡散モデルを微調整し、徹底的な再トレーニングを回避し、最後に、背景を持つ合成オブジェクトを構成する Copy-Paste 法を含む。
論文 参考訳(メタデータ) (2023-11-21T04:38:21Z) - Global Structure-Aware Diffusion Process for Low-Light Image Enhancement [64.69154776202694]
本稿では,低照度画像強調問題に対処する拡散型フレームワークについて検討する。
我々は、その固有のODE-軌道の正規化を提唱する。
実験により,提案手法は低照度化において優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2023-10-26T17:01:52Z) - LEAT: Towards Robust Deepfake Disruption in Real-World Scenarios via
Latent Ensemble Attack [11.764601181046496]
生成モデルによって作成された悪意のある視覚コンテンツであるディープフェイクは、社会にますます有害な脅威をもたらす。
近年のディープフェイクの損傷を積極的に軽減するために, 逆方向の摂動を用いてディープフェイクモデルの出力を妨害する研究が進められている。
そこで本研究では,Latent Ensemble ATtack (LEAT) と呼ばれる簡易かつ効果的なディスラプション手法を提案する。
論文 参考訳(メタデータ) (2023-07-04T07:00:37Z) - Hierarchical Integration Diffusion Model for Realistic Image Deblurring [71.76410266003917]
拡散モデル (DM) は画像劣化に導入され, 有望な性能を示した。
本稿では,階層型統合拡散モデル(HI-Diff)を提案する。
人工的および実世界のぼかしデータセットの実験は、HI-Diffが最先端の手法より優れていることを示した。
論文 参考訳(メタデータ) (2023-05-22T12:18:20Z) - ShadowDiffusion: When Degradation Prior Meets Diffusion Model for Shadow
Removal [74.86415440438051]
画像と劣化先行情報を統合した統合拡散フレームワークを提案する。
SRDデータセット上でのPSNRは31.69dBから34.73dBへと大幅に向上した。
論文 参考訳(メタデータ) (2022-12-09T07:48:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。