論文の概要: CrimEdit: Controllable Editing for Counterfactual Object Removal, Insertion, and Movement
- arxiv url: http://arxiv.org/abs/2509.23708v1
- Date: Sun, 28 Sep 2025 07:41:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:19.388766
- Title: CrimEdit: Controllable Editing for Counterfactual Object Removal, Insertion, and Movement
- Title(参考訳): CrimEdit: 異物除去・挿入・移動のための制御可能な編集
- Authors: Boseong Jeon, Junghyuk Lee, Jimin Park, Kwanyoung Kim, Jingi Jung, Sangwon Lee, Hyunbo Shim,
- Abstract要約: CrimEditは単一のモデル内でタスクの埋め込みと挿入を訓練する。
両方の物体とその効果を除去し、挿入中の物体効果の制御可能な合成を可能にする。
CrimEditは、より優れたオブジェクト除去、制御可能なエフェクト挿入、効率的なオブジェクト移動を実現する。
- 参考スコア(独自算出の注目度): 12.202217673682798
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent works on object removal and insertion have enhanced their performance by handling object effects such as shadows and reflections, using diffusion models trained on counterfactual datasets. However, the performance impact of applying classifier-free guidance to handle object effects across removal and insertion tasks within a unified model remains largely unexplored. To address this gap and improve efficiency in composite editing, we propose CrimEdit, which jointly trains the task embeddings for removal and insertion within a single model and leverages them in a classifier-free guidance scheme -- enhancing the removal of both objects and their effects, and enabling controllable synthesis of object effects during insertion. CrimEdit also extends these two task prompts to be applied to spatially distinct regions, enabling object movement (repositioning) within a single denoising step. By employing both guidance techniques, extensive experiments show that CrimEdit achieves superior object removal, controllable effect insertion, and efficient object movement without requiring additional training or separate removal and insertion stages.
- Abstract(参考訳): オブジェクトの除去と挿入に関する最近の研究は, 影や反射などのオブジェクト効果を, 反現実的データセットで訓練された拡散モデルを用いて処理することによって, 性能を向上している。
しかし, 統一モデルにおける除去・挿入作業におけるオブジェクト効果に対する分類器フリーガイダンスの適用による性能への影響は, 明らかにされていない。
このギャップに対処し、複合編集における効率を向上させるために、CrimEditを提案する。CrimEditは、単一のモデルにタスク埋め込みを組み込んで除去と挿入を共同で訓練し、分類子なし指導スキームでそれらを活用することで、両方のオブジェクトの除去とその効果を向上し、挿入中のオブジェクト効果の制御可能な合成を可能にする。
CrimEditはまた、これらの2つのタスクプロンプトを空間的に異なる領域に適用するように拡張し、単一の認知ステップ内でオブジェクトの動き(再配置)を可能にする。
双方の指導手法を用いることで、CrimEditは、追加の訓練や別段の除去・挿入を必要とせず、優れた物体除去、制御可能な効果挿入、効率的な物体移動を実現していることを示す。
関連論文リスト
- O-DisCo-Edit: Object Distortion Control for Unified Realistic Video Editing [88.93410369258203]
O-DisCo-Editは、新しいオブジェクト歪み制御(O-DisCo)を組み込んだ統合フレームワークである
この信号はランダムノイズと適応ノイズに基づいて、単一の表現内に幅広い編集キューを柔軟にカプセル化する。
O-DisCo-Editは、効果的なトレーニングパラダイムによる効率的な高忠実な編集を可能にする。
論文 参考訳(メタデータ) (2025-09-01T16:29:39Z) - Realistic and Controllable 3D Gaussian-Guided Object Editing for Driving Video Generation [12.982001613987315]
G2Editorは、ビデオ駆動時の不正確で正確なオブジェクト編集のために設計されたフレームワークである。
シーンレベルの3Dバウンディングボックスレイアウトを用いて、非ターゲットオブジェクトの隠蔽領域を再構築する。
実験によると、G2Editorは統一されたフレームワーク内でオブジェクトの配置、挿入、削除を効果的にサポートする。
論文 参考訳(メタデータ) (2025-08-28T06:39:53Z) - ObjectClear: Complete Object Removal via Object-Effect Attention [56.2893552300215]
我々は、オブジェクトとそれに関連する視覚的アーティファクトの両方の正確なマスクとともに、オブジェクト効果と不要なペア画像を提供するOBERという、オブジェクト・エフェクト除去のための新しいデータセットを紹介した。
本研究では,物体効果の注意機構を組み込んだ新しいフレームワーク ObjectClear を提案する。
実験では、ObjectClearが既存のメソッドよりも優れており、特に複雑なシナリオにおいて、オブジェクト・エフェクトの除去品質と背景の忠実さの改善を実現している。
論文 参考訳(メタデータ) (2025-05-28T17:51:17Z) - OmniPaint: Mastering Object-Oriented Editing via Disentangled Insertion-Removal Inpainting [54.525583840585305]
我々はオブジェクトの削除と挿入を相互依存プロセスとして再概念化する統合フレームワークであるOmniPaintを紹介した。
我々の新しいCFDメトリクスは、コンテキスト整合性とオブジェクト幻覚の堅牢で参照不要な評価を提供する。
論文 参考訳(メタデータ) (2025-03-11T17:55:27Z) - Object-Centric Latent Action Learning [70.3173534658611]
本稿では,画素ではなくオブジェクトを対象とする,オブジェクト中心の潜在動作学習フレームワークを提案する。
我々は、自己教師対象中心の事前学習を利用して、行動関連や注意をそらすダイナミクスを歪めている。
その結果, 物体中心の事前学習は, トラクタの負の効果を50%軽減することがわかった。
論文 参考訳(メタデータ) (2025-02-13T11:27:05Z) - FunEditor: Achieving Complex Image Edits via Function Aggregation with Diffusion Models [15.509233098264513]
拡散モデルは生成タスクにおいて優れた性能を示しており、画像編集の理想的な候補となっている。
本稿では,原子編集関数を学習し,より単純な関数を集約して複雑な編集を行うための,効率的な拡散モデルFunEditorを紹介する。
推論の4ステップだけで、FunEditorは既存の一般的なメソッドよりも5~24倍の推論スピードアップを達成する。
論文 参考訳(メタデータ) (2024-08-16T02:33:55Z) - DiffUHaul: A Training-Free Method for Object Dragging in Images [78.93531472479202]
DiffUHaulと呼ばれるオブジェクトドラッグタスクのためのトレーニング不要な手法を提案する。
まず、各認知段階に注意マスキングを適用して、各生成を異なるオブジェクトにまたがってよりゆがみやすくする。
初期のデノナイジングステップでは、ソース画像とターゲット画像の注意特徴を補間して、新しいレイアウトを元の外観とスムーズに融合させる。
論文 参考訳(メタデータ) (2024-06-03T17:59:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。