論文の概要: CEI-3D: Collaborative Explicit-Implicit 3D Reconstruction for Realistic and Fine-Grained Object Editing
- arxiv url: http://arxiv.org/abs/2603.11810v1
- Date: Thu, 12 Mar 2026 11:15:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-13 14:46:26.041692
- Title: CEI-3D: Collaborative Explicit-Implicit 3D Reconstruction for Realistic and Fine-Grained Object Editing
- Title(参考訳): CEI-3D:リアルかつ微細なオブジェクト編集のための協調的明示的3次元再構成
- Authors: Yue Shi, Rui Shi, Yuxuan Xiong, Bingbing Ni, Wenjun Zhang,
- Abstract要約: 既存の3D編集手法は、再構成ネットワークの深い統合性のために、非現実的で未精細な結果をもたらすことが多い。
本稿では,現実的できめ細かな編集を容易にするための,編集指向の再構築パイプラインであるCEI-3Dを紹介する。
提案手法は,最新技術(SOTA)手法よりも,よりリアルできめ細かな編集結果を実現すると同時に,編集時間を短縮する。
- 参考スコア(独自算出の注目度): 51.73433734209541
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing 3D editing methods often produce unrealistic and unrefined results due to the deeply integrated nature of their reconstruction networks. To address the challenge, this paper introduces CEI-3D, an editing-oriented reconstruction pipeline designed to facilitate realistic and fine-grained editing. Specifically, we propose a collaborative explicit-implicit reconstruction approach, which represents the target object using an implicit SDF network and a differentially sampled, locally controllable set of handler points. The implicit network provides a smooth and continuous geometry prior, while the explicit handler points offer localized control, enabling mutual guidance between the global 3D structure and user-specified local editing regions. To independently control each attribute of the handler points, we design a physical properties disentangling module to decouple the color of the handler points into separate physical properties. We also propose a dual-diffuse-albedo network in this module to process the edited and non-edited regions through separate branches, thereby preventing undesired interference from editing operations. Building on the reconstructed collaborative explicit-implicit representation with disentangled properties, we introduce a spatial-aware editing module that enables part-wise adjustment of relevant handler points. This module employs a cross-view propagation-based 3D segmentation strategy, which helps users to edit the specified physical attributes of a target part efficiently. Extensive experiments on both real and synthetic datasets demonstrate that our approach achieves more realistic and fine-grained editing results than the state-of-the-art (SOTA) methods while requiring less editing time. Our code is available on https://github.com/shiyue001/CEI-3D.
- Abstract(参考訳): 既存の3D編集手法は、再構成ネットワークの深い統合性のために、非現実的で未精細な結果をもたらすことが多い。
そこで本研究では,現実的できめ細かな編集を容易にするための,編集指向の再構築パイプラインであるCEI-3Dを紹介する。
具体的には、暗黙的なSDFネットワークと、局所的に制御可能なハンドラポイントの差分サンプリングを用いて対象オブジェクトを表現する、協調的明示的簡易再構築手法を提案する。
暗黙のネットワークは前もって滑らかで連続的な幾何学を提供し、明示的なハンドラポイントは局所的な制御を提供し、グローバルな3D構造とユーザ指定のローカル編集領域間の相互誘導を可能にする。
ハンドラ点の各属性を独立に制御するために、ハンドラ点の色を別個の物理特性に分離する物理特性分離モジュールを設計する。
また,このモジュールでは,編集対象領域と非編集対象領域を別個のブランチで処理し,不要な干渉を編集操作から防止するために,二重拡散アルベドネットワークを提案する。
本稿では,不整合特性を持つ協調的明示的単純表現を再構成した上で,関係するハンドラ点の部分的調整を可能にする空間認識編集モジュールを提案する。
このモジュールは、ユーザがターゲット部分の特定の物理的属性を効率的に編集するのに役立つ、クロスビューの伝搬に基づく3Dセグメンテーション戦略を採用している。
実際のデータセットと合成データセットの両方に対する大規模な実験により、我々の手法はよりリアルできめ細かな編集結果を、より少ない編集時間で得られることを示した。
私たちのコードはhttps://github.com/shiyue001/CEI-3Dで利用可能です。
関連論文リスト
- InterCoG: Towards Spatially Precise Image Editing with Interleaved Chain-of-Grounding Reasoning [60.799998743918955]
複雑な現実世界のシーンにおける微細な画像編集のためのテキストビジョンインターリーブド・チェーン・オブ・グラウンド推論フレームワークを提案する。
InterCoGの重要な洞察は、まずテキスト内でのみオブジェクト位置推論を実行することである。
また,マルチモーダル・グラウンド・ライティング・アライメント・アライメントとマルチモーダル・グラウンド・ライティング・アライメント・アライメントの2つの補助的トレーニング・モジュールを提案する。
論文 参考訳(メタデータ) (2026-03-02T08:13:16Z) - POCI-Diff: Position Objects Consistently and Interactively with 3D-Layout Guided Diffusion [46.97254555348757]
本稿では,テキスト・トゥ・イメージ(T2I)生成のための拡散型アプローチを提案する。
連続的かつインタラクティブな位置決めのためのフレームワーク(POCI-Diff)を導入する。
本手法は,個々のテキスト記述を特定の3次元境界ボックスに結合することで,オブジェクトごとのセマンティック制御を可能にする。
論文 参考訳(メタデータ) (2026-01-20T15:13:43Z) - HPR3D: Hierarchical Proxy Representation for High-Fidelity 3D Reconstruction and Controllable Editing [33.554101922316946]
メッシュ、ボクセル、ポイントクラウド、NeRFベースのニューラル暗黙のフィールドといった3D表現には、大きな制限がある。
本稿では,新しい3次元階層型プロキシノード表現を提案する。
提案手法は, 表現効率, 高忠実度レンダリング品質, 編集性に優れていた。
論文 参考訳(メタデータ) (2025-07-16T07:09:05Z) - SplatMesh: Interactive 3D Segmentation and Editing Using Mesh-Based Gaussian Splatting [86.50200613220674]
3Dベースのインタラクティブ編集における重要な課題は、与えられたメモリ制約の下で様々な修正と高品質なビュー合成のバランスをとる効率的な表現がないことである。
SplatMeshは,3次元ガウススプラッティングと事前計算メッシュを統合した,対話型3Dセグメンテーション・編集アルゴリズムである。
単純化されたメッシュのセグメンテーションと編集により、ガウススプレートの編集も効果的に行えます。
論文 参考訳(メタデータ) (2023-12-26T02:50:42Z) - Plasticine3D: 3D Non-Rigid Editing with Text Guidance by Multi-View Embedding Optimization [21.8454418337306]
本研究では,3次元非剛性編集が可能なテキスト誘導型3D編集パイプラインであるPlastine3Dを提案する。
本研究は,編集過程を幾何学的編集段階とテクスチャ的編集段階に分割し,構造と外観を別々に制御する。
細粒度制御のために,埋め込み空間の編集目的と原特徴を融合させるエンベディング・フュージョン (EF) を提案する。
論文 参考訳(メタデータ) (2023-12-15T09:01:54Z) - SHAP-EDITOR: Instruction-guided Latent 3D Editing in Seconds [73.91114735118298]
Shap-Editorは、新しいフィードフォワード3D編集フレームワークである。
フィードフォワード・エディター・ネットワークを構築することで,この空間で直接3D編集を行うことが可能であることを示す。
論文 参考訳(メタデータ) (2023-12-14T18:59:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。