論文の概要: Towards Scalable and Consistent 3D Editing
- arxiv url: http://arxiv.org/abs/2510.02994v1
- Date: Fri, 03 Oct 2025 13:34:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-06 16:35:52.39939
- Title: Towards Scalable and Consistent 3D Editing
- Title(参考訳): スケーラブルで一貫性のある3D編集を目指して
- Authors: Ruihao Xia, Yang Tang, Pan Zhou,
- Abstract要約: 3D編集は没入型コンテンツ制作、デジタルエンターテイメント、AR/VRに広く応用されている。
2D編集とは異なり、クロスビューの一貫性、構造的忠実さ、きめ細かい制御性を必要とするため、依然として困難である。
我々はこれまでで最大の3D編集ベンチマークである3DEditVerseを紹介した。
モデル側では、3次元構造保存条件変換器である3DEditFormerを提案する。
- 参考スコア(独自算出の注目度): 32.16698854719098
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 3D editing - the task of locally modifying the geometry or appearance of a 3D asset - has wide applications in immersive content creation, digital entertainment, and AR/VR. However, unlike 2D editing, it remains challenging due to the need for cross-view consistency, structural fidelity, and fine-grained controllability. Existing approaches are often slow, prone to geometric distortions, or dependent on manual and accurate 3D masks that are error-prone and impractical. To address these challenges, we advance both the data and model fronts. On the data side, we introduce 3DEditVerse, the largest paired 3D editing benchmark to date, comprising 116,309 high-quality training pairs and 1,500 curated test pairs. Built through complementary pipelines of pose-driven geometric edits and foundation model-guided appearance edits, 3DEditVerse ensures edit locality, multi-view consistency, and semantic alignment. On the model side, we propose 3DEditFormer, a 3D-structure-preserving conditional transformer. By enhancing image-to-3D generation with dual-guidance attention and time-adaptive gating, 3DEditFormer disentangles editable regions from preserved structure, enabling precise and consistent edits without requiring auxiliary 3D masks. Extensive experiments demonstrate that our framework outperforms state-of-the-art baselines both quantitatively and qualitatively, establishing a new standard for practical and scalable 3D editing. Dataset and code will be released. Project: https://www.lv-lab.org/3DEditFormer/
- Abstract(参考訳): 3D編集 – 3Dアセットの形状や外観を局所的に修正するタスク – は、没入型コンテンツ作成、デジタルエンターテイメント、AR/VRに広く応用されている。
しかし、2D編集とは異なり、クロスビューの一貫性、構造的忠実さ、きめ細かい制御性を必要とするため、依然として困難である。
既存のアプローチは、しばしば遅く、幾何学的歪みの傾向があり、手動で正確な3Dマスクに依存している。
これらの課題に対処するため、私たちはデータとモデルの両方を前進させます。
データ側では,これまでで最大の3D編集ベンチマークである3DEditVerseを導入し,高品質なトレーニングペア116,309台,キュレートされたテストペア1,500台について検討した。
3DEditVerseは、ポーズ駆動の幾何学的編集と基礎モデルによる外観編集の補完的なパイプラインによって構築され、3DEditVerseは、編集の局所性、複数ビューの一貫性、セマンティックアライメントを保証する。
モデル側では、3次元構造保存条件変換器である3DEditFormerを提案する。
3DEditFormerは、デュアルガイダンスアテンションとタイムアダプティブゲーティングで画像から3D生成を向上することにより、編集可能な領域を保存された構造から切り離し、補助的な3Dマスクを必要とせずに正確な一貫した編集を可能にする。
大規模な実験により、我々のフレームワークは、定量的かつ質的に最先端のベースラインを上回り、実用的でスケーラブルな3D編集のための新しい標準を確立した。
データセットとコードがリリースされる。
プロジェクト:https://www.lv-lab.org/3DEditFormer/
関連論文リスト
- 3D-LATTE: Latent Space 3D Editing from Textual Instructions [64.77718887666312]
本研究では,ネイティブな3次元拡散モデルの潜在空間内で動作する学習自由な編集手法を提案する。
生成元からの3Dアテンションマップとソースオブジェクトをブレンドすることで、編集合成をガイドする。
論文 参考訳(メタデータ) (2025-08-29T22:51:59Z) - Tailor3D: Customized 3D Assets Editing and Generation with Dual-Side Images [72.70883914827687]
Tailor3Dは、編集可能なデュアルサイドイメージからカスタマイズされた3Dアセットを作成する新しいパイプラインである。
3Dアセットを編集するためのユーザフレンドリで効率的なソリューションを提供する。
論文 参考訳(メタデータ) (2024-07-08T17:59:55Z) - Reference-Based 3D-Aware Image Editing with Triplanes [15.222454412573455]
本研究は,先進的な参照ベース編集における三面体空間の有効性を探求し,実証する。
提案手法は, 符号化, 自動位置決め, 三面体特徴の空間的ゆがみ, 融合学習を統合して, 所望の編集を実現する。
われわれは、人間の顔、360度頭部、動物の顔、漫画の顔のような部分的にスタイリングされた編集、フルボディの衣服の編集、クラスに依存しないサンプルの編集など、さまざまな領域にまたがるアプローチを実証した。
論文 参考訳(メタデータ) (2024-04-04T17:53:33Z) - View-Consistent 3D Editing with Gaussian Splatting [50.6460814430094]
View-Consistent Editing (VcEdit)は、3DGSをシームレスに画像編集プロセスに組み込む新しいフレームワークである。
一貫性モジュールを反復パターンに組み込むことで、VcEditはマルチビューの不整合の問題を十分に解決する。
論文 参考訳(メタデータ) (2024-03-18T15:22:09Z) - Image Sculpting: Precise Object Editing with 3D Geometry Control [33.9777412846583]
Image Sculptingは、3D幾何学とグラフィックスのツールを組み込むことで、2D画像を編集する新しいフレームワークである。
これは、ポーズ編集、回転、翻訳、3D合成、彫刻、シリアル追加といった、正確で定量化され、物理的に証明可能な編集オプションをサポートする。
論文 参考訳(メタデータ) (2024-01-02T18:59:35Z) - Plasticine3D: 3D Non-Rigid Editing with Text Guidance by Multi-View Embedding Optimization [21.8454418337306]
本研究では,3次元非剛性編集が可能なテキスト誘導型3D編集パイプラインであるPlastine3Dを提案する。
本研究は,編集過程を幾何学的編集段階とテクスチャ的編集段階に分割し,構造と外観を別々に制御する。
細粒度制御のために,埋め込み空間の編集目的と原特徴を融合させるエンベディング・フュージョン (EF) を提案する。
論文 参考訳(メタデータ) (2023-12-15T09:01:54Z) - SHAP-EDITOR: Instruction-guided Latent 3D Editing in Seconds [73.91114735118298]
Shap-Editorは、新しいフィードフォワード3D編集フレームワークである。
フィードフォワード・エディター・ネットワークを構築することで,この空間で直接3D編集を行うことが可能であることを示す。
論文 参考訳(メタデータ) (2023-12-14T18:59:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。