論文の概要: CoreEditor: Consistent 3D Editing via Correspondence-constrained Diffusion
- arxiv url: http://arxiv.org/abs/2508.11603v1
- Date: Fri, 15 Aug 2025 17:13:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-18 14:51:24.16087
- Title: CoreEditor: Consistent 3D Editing via Correspondence-constrained Diffusion
- Title(参考訳): CoreEditor: 対応制約付き拡散による一貫性のある3D編集
- Authors: Zhe Zhu, Honghua Chen, Peng Li, Mingqiang Wei,
- Abstract要約: CoreEditorは、一貫したテキストから3D編集のための新しいフレームワークである。
本稿では,画素間の正確な相互作用を強制するアテンション制約付アテンション機構を提案する。
実験では、CoreEditorはよりシャープなディテールで高品質な3D一貫性のある編集を生成する。
- 参考スコア(独自算出の注目度): 24.144486805878596
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Text-driven 3D editing seeks to modify 3D scenes according to textual descriptions, and most existing approaches tackle this by adapting pre-trained 2D image editors to multi-view inputs. However, without explicit control over multi-view information exchange, they often fail to maintain cross-view consistency, leading to insufficient edits and blurry details. We introduce CoreEditor, a novel framework for consistent text-to-3D editing. The key innovation is a correspondence-constrained attention mechanism that enforces precise interactions between pixels expected to remain consistent throughout the diffusion denoising process. Beyond relying solely on geometric alignment, we further incorporate semantic similarity estimated during denoising, enabling more reliable correspondence modeling and robust multi-view editing. In addition, we design a selective editing pipeline that allows users to choose preferred results from multiple candidates, offering greater flexibility and user control. Extensive experiments show that CoreEditor produces high-quality, 3D-consistent edits with sharper details, significantly outperforming prior methods.
- Abstract(参考訳): テキスト駆動3D編集は、テキスト記述に従って3Dシーンを修正しようとするが、既存のアプローチは、事前学習された2Dイメージエディタをマルチビュー入力に適応させることで、この問題に対処している。
しかし、多視点情報交換の明示的な制御がなければ、しばしばクロスビュー一貫性の維持に失敗し、編集が不十分になり、詳細がぼやけてしまう。
一貫性のあるテキストから3D編集のための新しいフレームワークであるCoreEditorを紹介する。
鍵となる革新は、拡散分極過程を通して一貫性が保たれると期待される画素間の正確な相互作用を強制する対応制約された注意機構である。
幾何学的アライメントのみに頼らず、より信頼性の高い対応モデリングと堅牢なマルチビュー編集を実現するために、デノナイズ時に推定される意味的類似性をさらに取り入れる。
さらに,選択可能な編集パイプラインを設計し,複数の候補から選択した結果を選択できるようにし,柔軟性とユーザコントロールを向上する。
大規模な実験により、CoreEditorはよりシャープな細部で高品質で3D一貫性のある編集を作成でき、従来の方法よりも大幅に優れていた。
関連論文リスト
- Geometry-Guided Reinforcement Learning for Multi-view Consistent 3D Scene Editing [106.07976338405793]
3次元編集における2次元拡散モデルの先行的活用は、有望なパラダイムとして現れている。
我々は3次元基礎モデルであるVGGTから得られた新たな報酬を用いて、強化学習によって駆動されるシングルパスフレームワークであるtextbfRL3DEditを提案する。
実験により、RL3DEditは安定したマルチビューの一貫性を実現し、高い効率で品質を編集する最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2026-03-03T16:31:10Z) - Edit3r: Instant 3D Scene Editing from Sparse Unposed Images [40.421700685587346]
編集3rは、3Dシーンを1パスで再構成・編集するフレームワークである。
Edit3rは,最近のベースラインと比較して,セマンティックアライメントと3D整合性の向上を実現している。
論文 参考訳(メタデータ) (2025-12-31T18:59:53Z) - 3D-Consistent Multi-View Editing by Diffusion Guidance [17.847266433739147]
画像を独立して編集する手法は、幾何学的にも測度的にも矛盾する結果を異なる視点で生成することが多い。
画像編集過程における多視点の一貫性を実現するための学習自由拡散フレームワークを提案する。
提案手法は,既存のマルチビュー編集手法と比較して,3次元の整合性を大幅に向上することを示す。
論文 参考訳(メタデータ) (2025-11-27T08:48:36Z) - Free-Form Scene Editor: Enabling Multi-Round Object Manipulation like in a 3D Engine [83.0145525456509]
実世界の画像に対して直感的で物理的に一貫性のあるオブジェクト編集を可能にする3D対応フレームワークであるFFSEを提案する。
画像空間で動作したり、遅くてエラーを起こしやすい3D再構成を必要とする従来のアプローチとは異なり、FFSEは学習された3D変換のシーケンスとして編集する。
マルチラウンド3Dオブジェクト操作の学習を支援するために,3DObjectEditorを導入する。
論文 参考訳(メタデータ) (2025-11-17T18:57:39Z) - C3Editor: Achieving Controllable Consistency in 2D Model for 3D Editing [37.439731931558036]
C3Editorは、コントロール可能で一貫性のある2Dリフトベースの3D編集フレームワークである。
本手法は,ビュー一貫性を有する2次元編集モデルを選択的に確立し,優れた3次元編集結果を得る。
提案手法は既存の2Dリフト方式よりも,より一貫性があり,制御可能な2Dおよび3D編集結果を提供する。
論文 参考訳(メタデータ) (2025-10-06T07:07:14Z) - DGE: Direct Gaussian 3D Editing by Consistent Multi-view Editing [72.54566271694654]
オープンな言語命令に基づいて3Dオブジェクトやシーンを編集する際の問題点を考察する。
この問題に対する一般的なアプローチは、3D編集プロセスをガイドするために2Dイメージジェネレータまたはエディタを使用することである。
このプロセスは、コストのかかる3D表現の反復的な更新を必要とするため、しばしば非効率である。
論文 参考訳(メタデータ) (2024-04-29T17:59:30Z) - View-Consistent 3D Editing with Gaussian Splatting [50.6460814430094]
View-Consistent Editing (VcEdit)は、3DGSをシームレスに画像編集プロセスに組み込む新しいフレームワークである。
一貫性モジュールを反復パターンに組み込むことで、VcEditはマルチビューの不整合の問題を十分に解決する。
論文 参考訳(メタデータ) (2024-03-18T15:22:09Z) - Plasticine3D: 3D Non-Rigid Editing with Text Guidance by Multi-View Embedding Optimization [21.8454418337306]
本研究では,3次元非剛性編集が可能なテキスト誘導型3D編集パイプラインであるPlastine3Dを提案する。
本研究は,編集過程を幾何学的編集段階とテクスチャ的編集段階に分割し,構造と外観を別々に制御する。
細粒度制御のために,埋め込み空間の編集目的と原特徴を融合させるエンベディング・フュージョン (EF) を提案する。
論文 参考訳(メタデータ) (2023-12-15T09:01:54Z) - SHAP-EDITOR: Instruction-guided Latent 3D Editing in Seconds [73.91114735118298]
Shap-Editorは、新しいフィードフォワード3D編集フレームワークである。
フィードフォワード・エディター・ネットワークを構築することで,この空間で直接3D編集を行うことが可能であることを示す。
論文 参考訳(メタデータ) (2023-12-14T18:59:06Z) - Editing 3D Scenes via Text Prompts without Retraining [80.57814031701744]
DN2Nはテキスト駆動編集方式であり、普遍的な編集機能を備えたNeRFモデルの直接取得を可能にする。
本手法では,2次元画像のテキストベース編集モデルを用いて3次元シーン画像の編集を行う。
本手法は,外観編集,天気変化,材質変化,スタイル伝達など,複数種類の編集を行う。
論文 参考訳(メタデータ) (2023-09-10T02:31:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。