論文の概要: Pro3D-Editor : A Progressive-Views Perspective for Consistent and Precise 3D Editing
- arxiv url: http://arxiv.org/abs/2506.00512v2
- Date: Tue, 03 Jun 2025 12:03:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-04 21:47:33.110225
- Title: Pro3D-Editor : A Progressive-Views Perspective for Consistent and Precise 3D Editing
- Title(参考訳): Pro3D-Editor : 一貫性と高精度な3D編集のためのプログレッシブ視点
- Authors: Yang Zheng, Mengqi Huang, Nan Chen, Zhendong Mao,
- Abstract要約: テキスト誘導型3D編集は意味のある局所的な3D領域を正確に編集することを目的としている。
既存の方法は通常、2Dビューを無差別に編集し、3D空間に投影する。
理想的な一貫した3D編集は、テキストプログレッシブ・ビューのパラダイムによって実現できると我々は主張する。
- 参考スコア(独自算出の注目度): 25.237699330731395
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Text-guided 3D editing aims to precisely edit semantically relevant local 3D regions, which has significant potential for various practical applications ranging from 3D games to film production. Existing methods typically follow a view-indiscriminate paradigm: editing 2D views indiscriminately and projecting them back into 3D space. However, they overlook the different cross-view interdependencies, resulting in inconsistent multi-view editing. In this study, we argue that ideal consistent 3D editing can be achieved through a \textit{progressive-views paradigm}, which propagates editing semantics from the editing-salient view to other editing-sparse views. Specifically, we propose \textit{Pro3D-Editor}, a novel framework, which mainly includes Primary-view Sampler, Key-view Render, and Full-view Refiner. Primary-view Sampler dynamically samples and edits the most editing-salient view as the primary view. Key-view Render accurately propagates editing semantics from the primary view to other key views through its Mixture-of-View-Experts Low-Rank Adaption (MoVE-LoRA). Full-view Refiner edits and refines the 3D object based on the edited multi-views. Extensive experiments demonstrate that our method outperforms existing methods in editing accuracy and spatial consistency.
- Abstract(参考訳): テキスト誘導型3D編集は,意味的に関連する局所的な3D領域を正確に編集することを目的としている。
既存の方法は、通常、ビュー非差別のパラダイムに従い、2Dビューを非差別的に編集し、3D空間に投影する。
しかし、それらは異なる相互依存性を見落とし、一貫性のない複数ビュー編集をもたらす。
本研究では,編集・サレントな視点から他の編集・スパースな視点へのセマンティクスを伝播させる「textit{progressive-views paradigm」を通じて,理想的な一貫した3D編集を実現することができると論じる。
具体的には,プリミティブ・ビュー・サンプラー,キー・ビュー・レンダー,フル・ビュー・リファイナなどを含む新しいフレームワークである「textit{Pro3D-Editor}」を提案する。
Priary-view Samplerは、最も編集しやすいビューをプライマリビューとして動的にサンプリングし、編集する。
Key-view Renderは、Mixture-of-View-Experts Low-Rank Adaption (MoVE-LoRA)を通じて、プライマリビューから他のキービューへの編集セマンティクスを正確に伝達する。
Full-view Refinerは、編集されたマルチビューに基づいて3Dオブジェクトを編集し、洗練する。
大規模な実験により,提案手法は既存の手法よりも精度と空間的整合性を向上することが示された。
関連論文リスト
- EditP23: 3D Editing via Propagation of Image Prompts to Multi-View [49.5776584729283]
本研究では,マスクのない3D編集手法であるEditP23を提案する。
テキストベースのプロンプトや明示的な空間マスクに依存する従来のアプローチとは対照的に、EditP23は2つのイメージを条件付けすることで直感的な編集を可能にする。
論文 参考訳(メタデータ) (2025-06-25T17:50:20Z) - DragScene: Interactive 3D Scene Editing with Single-view Drag Instructions [9.31257776760014]
3D編集は、様々な指示に基づいてシーンを編集する際、顕著な能力を示した。
既存の方法は直感的で局所的な編集に苦労する。
DragSceneは、ドラッグスタイルの編集と多様な3D表現を統合するフレームワークである。
論文 参考訳(メタデータ) (2024-12-18T07:02:01Z) - PrEditor3D: Fast and Precise 3D Shape Editing [100.09112677669376]
本稿では,1つの形状の編集を数分以内に行うことができる3D編集のためのトレーニングフリーアプローチを提案する。
編集された3Dメッシュはプロンプトとよく一致しており、変更を意図していない領域でも同じである。
論文 参考訳(メタデータ) (2024-12-09T15:44:47Z) - EditRoom: LLM-parameterized Graph Diffusion for Composable 3D Room Layout Editing [114.14164860467227]
自然言語コマンドで様々なレイアウト編集を実行できるフレームワークであるEditRoomを提案する。
特にEditRoomは、コマンドプランニングとターゲットシーンの生成にLarge Language Models(LLM)を利用している。
既存の3Dシーンデータセットを拡張する自動パイプラインを開発し,83kの編集ペアを備えた大規模データセットであるEditRoom-DBを導入した。
論文 参考訳(メタデータ) (2024-10-03T17:42:24Z) - View-Consistent 3D Editing with Gaussian Splatting [50.6460814430094]
View-Consistent Editing (VcEdit)は、3DGSをシームレスに画像編集プロセスに組み込む新しいフレームワークである。
一貫性モジュールを反復パターンに組み込むことで、VcEditはマルチビューの不整合の問題を十分に解決する。
論文 参考訳(メタデータ) (2024-03-18T15:22:09Z) - Plasticine3D: 3D Non-Rigid Editing with Text Guidance by Multi-View Embedding Optimization [21.8454418337306]
本研究では,3次元非剛性編集が可能なテキスト誘導型3D編集パイプラインであるPlastine3Dを提案する。
本研究は,編集過程を幾何学的編集段階とテクスチャ的編集段階に分割し,構造と外観を別々に制御する。
細粒度制御のために,埋め込み空間の編集目的と原特徴を融合させるエンベディング・フュージョン (EF) を提案する。
論文 参考訳(メタデータ) (2023-12-15T09:01:54Z) - SHAP-EDITOR: Instruction-guided Latent 3D Editing in Seconds [73.91114735118298]
Shap-Editorは、新しいフィードフォワード3D編集フレームワークである。
フィードフォワード・エディター・ネットワークを構築することで,この空間で直接3D編集を行うことが可能であることを示す。
論文 参考訳(メタデータ) (2023-12-14T18:59:06Z) - Editing 3D Scenes via Text Prompts without Retraining [80.57814031701744]
DN2Nはテキスト駆動編集方式であり、普遍的な編集機能を備えたNeRFモデルの直接取得を可能にする。
本手法では,2次元画像のテキストベース編集モデルを用いて3次元シーン画像の編集を行う。
本手法は,外観編集,天気変化,材質変化,スタイル伝達など,複数種類の編集を行う。
論文 参考訳(メタデータ) (2023-09-10T02:31:50Z) - SINE: Semantic-driven Image-based NeRF Editing with Prior-guided Editing
Field [37.8162035179377]
我々は,1つの画像でニューラルラディアンスフィールドを編集できる,新しい意味駆動型NeRF編集手法を提案する。
この目的を達成するために,3次元空間における微細な幾何学的・テクスチャ的編集を符号化する事前誘導編集場を提案する。
本手法は,1枚の編集画像のみを用いた写真リアルな3D編集を実現し,実世界の3Dシーンにおけるセマンティックな編集の限界を押し上げる。
論文 参考訳(メタデータ) (2023-03-23T13:58:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。