論文の概要: OmniPaint: Mastering Object-Oriented Editing via Disentangled Insertion-Removal Inpainting
- arxiv url: http://arxiv.org/abs/2503.08677v2
- Date: Wed, 12 Mar 2025 17:05:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-13 12:14:30.223791
- Title: OmniPaint: Mastering Object-Oriented Editing via Disentangled Insertion-Removal Inpainting
- Title(参考訳): OmniPaint: 斜め挿入除去によるオブジェクト指向編集をマスターする
- Authors: Yongsheng Yu, Ziyun Zeng, Haitian Zheng, Jiebo Luo,
- Abstract要約: 我々はオブジェクトの削除と挿入を相互依存プロセスとして再概念化する統合フレームワークであるOmniPaintを紹介した。
我々の新しいCFDメトリクスは、コンテキスト整合性とオブジェクト幻覚の堅牢で参照不要な評価を提供する。
- 参考スコア(独自算出の注目度): 54.525583840585305
- License:
- Abstract: Diffusion-based generative models have revolutionized object-oriented image editing, yet their deployment in realistic object removal and insertion remains hampered by challenges such as the intricate interplay of physical effects and insufficient paired training data. In this work, we introduce OmniPaint, a unified framework that re-conceptualizes object removal and insertion as interdependent processes rather than isolated tasks. Leveraging a pre-trained diffusion prior along with a progressive training pipeline comprising initial paired sample optimization and subsequent large-scale unpaired refinement via CycleFlow, OmniPaint achieves precise foreground elimination and seamless object insertion while faithfully preserving scene geometry and intrinsic properties. Furthermore, our novel CFD metric offers a robust, reference-free evaluation of context consistency and object hallucination, establishing a new benchmark for high-fidelity image editing. Project page: https://yeates.github.io/OmniPaint-Page/
- Abstract(参考訳): 拡散に基づく生成モデルは、オブジェクト指向画像編集に革命をもたらしたが、現実的な物体除去と挿入への展開は、複雑な物理効果の相互作用や不十分なペアリングトレーニングデータといった課題によって妨げられている。
本稿では,オブジェクトの削除と挿入を独立したタスクではなく,相互依存プロセスとして再概念化する統合フレームワークであるOmniPaintを紹介する。
OmniPaintは、初期ペア化サンプル最適化とその後の大規模アンペア化を含むプログレッシブトレーニングパイプラインと併用して、シーン幾何学と固有の特性を忠実に保存しつつ、精密な前景除去とシームレスなオブジェクト挿入を実現する。
さらに,我々の新しいCFDメトリクスは,コンテキスト整合性とオブジェクト幻覚の頑健で参照不要な評価を提供し,高忠実度画像編集のための新しいベンチマークを確立する。
プロジェクトページ: https://yeates.github.io/OmniPaint-Page/
関連論文リスト
- FramePainter: Endowing Interactive Image Editing with Video Diffusion Priors [64.54220123913154]
本稿では,画像から映像への効率のよい生成問題としてFramePainterを紹介した。
軽量のスパース制御エンコーダのみを使用して編集信号を注入する。
従来の最先端の手法をはるかに少ないトレーニングデータで上回ります。
論文 参考訳(メタデータ) (2025-01-14T16:09:16Z) - PixelMan: Consistent Object Editing with Diffusion Models via Pixel Manipulation and Generation [15.342060815068347]
PixelManは、Pixel操作と生成を通じて一貫したオブジェクト編集を実現するための、インバージョンフリーでトレーニング不要な方法である。
数16の推論ステップにおいて、PixelManは最先端のトレーニングベースおよびトレーニングフリーメソッドよりも優れています。
論文 参考訳(メタデータ) (2024-12-18T19:24:15Z) - Generative Image Layer Decomposition with Visual Effects [49.75021036203426]
LayerDecompは、イメージ層分解のための生成フレームワークである。
清潔な背景と、忠実に保存された視覚効果を持つ高品質な透明な前景を作り出す。
本手法は,オブジェクト除去や空間編集作業において,既存の手法よりも優れた分解特性を実現する。
論文 参考訳(メタデータ) (2024-11-26T20:26:49Z) - DiffUHaul: A Training-Free Method for Object Dragging in Images [78.93531472479202]
DiffUHaulと呼ばれるオブジェクトドラッグタスクのためのトレーニング不要な手法を提案する。
まず、各認知段階に注意マスキングを適用して、各生成を異なるオブジェクトにまたがってよりゆがみやすくする。
初期のデノナイジングステップでは、ソース画像とターゲット画像の注意特徴を補間して、新しいレイアウトを元の外観とスムーズに融合させる。
論文 参考訳(メタデータ) (2024-06-03T17:59:53Z) - RefFusion: Reference Adapted Diffusion Models for 3D Scene Inpainting [63.567363455092234]
RefFusionは,画像インペイント拡散モデルのマルチスケールパーソナライズに基づく,新しい3Dインペイント手法である。
我々のフレームワークは、制御性を維持しながら、オブジェクト除去の最先端の成果を達成する。
論文 参考訳(メタデータ) (2024-04-16T17:50:02Z) - ObjectStitch: Generative Object Compositing [43.206123360578665]
本研究では,条件付き拡散モデルを用いたオブジェクト合成のための自己教師型フレームワークを提案する。
我々のフレームワークは、手動ラベリングを必要とせず、生成したオブジェクトの視点、幾何学、色、影を変換することができる。
本手法は, 実世界の様々な画像に対するユーザ研究において, 合成結果画像の写実性と忠実性の両方において, 関連ベースラインよりも優れていた。
論文 参考訳(メタデータ) (2022-12-02T02:15:13Z) - High-Resolution Image Inpainting with Iterative Confidence Feedback and
Guided Upsampling [122.06593036862611]
既存の画像塗装法は、実アプリケーションで大きな穴を扱う際に、しばしばアーティファクトを生成する。
本稿では,フィードバック機構を備えた反復インペイント手法を提案する。
実験により,本手法は定量評価と定性評価の両方において既存手法よりも有意に優れていた。
論文 参考訳(メタデータ) (2020-05-24T13:23:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。