論文の概要: Make Your MoVe: Make Your 3D Contents by Adapting Multi-View Diffusion Models to External Editing
- arxiv url: http://arxiv.org/abs/2508.07700v1
- Date: Mon, 11 Aug 2025 07:23:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-12 21:23:28.987726
- Title: Make Your MoVe: Make Your 3D Contents by Adapting Multi-View Diffusion Models to External Editing
- Title(参考訳): MoVeを作る: 外部編集にマルチビュー拡散モデルを適用することで3Dコンテンツを作る
- Authors: Weitao Wang, Haoran Xu, Jun Meng, Haoqian Wang,
- Abstract要約: 本研究では,編集された資産と元の幾何学を1つの推論実行で整列する,チューニング不要なプラグイン・アンド・プレイ方式を提案する。
編集された3Dアセットのマルチビュー整合性とメッシュ品質を一貫して改善する。
- 参考スコア(独自算出の注目度): 26.563801961090544
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: As 3D generation techniques continue to flourish, the demand for generating personalized content is rapidly rising. Users increasingly seek to apply various editing methods to polish generated 3D content, aiming to enhance its color, style, and lighting without compromising the underlying geometry. However, most existing editing tools focus on the 2D domain, and directly feeding their results into 3D generation methods (like multi-view diffusion models) will introduce information loss, degrading the quality of the final 3D assets. In this paper, we propose a tuning-free, plug-and-play scheme that aligns edited assets with their original geometry in a single inference run. Central to our approach is a geometry preservation module that guides the edited multi-view generation with original input normal latents. Besides, an injection switcher is proposed to deliberately control the supervision extent of the original normals, ensuring the alignment between the edited color and normal views. Extensive experiments show that our method consistently improves both the multi-view consistency and mesh quality of edited 3D assets, across multiple combinations of multi-view diffusion models and editing methods.
- Abstract(参考訳): 3D生成技術が発展を続けるにつれ、パーソナライズされたコンテンツへの需要は急速に高まっている。
ユーザは、色、スタイル、照明を改良し、基礎となる幾何学を損なうことなく、様々な編集方法を、生成した3Dコンテンツに応用したいと考えている。
しかし、既存の編集ツールのほとんどは2Dドメインに焦点を当てており、結果を直接3D生成方法(マルチビュー拡散モデルなど)に入力することで、最終的な3Dアセットの品質を低下させる。
本稿では,単一の推論実行において,編集された資産を元の幾何学と整合させる,チューニング不要なプラグアンドプレイ方式を提案する。
我々のアプローチの中心は、編集された複数ビュー生成を元の入力正規潜水器でガイドする幾何学保存モジュールである。
さらに、原規格の監督範囲を意図的に制御し、編集色と通常のビューとの整合性を確保するために、注入切換器を提案する。
広汎な実験により,多視点拡散モデルと編集手法の組み合わせにより,編集された3Dアセットのマルチビュー一貫性とメッシュ品質を一貫して改善することが示された。
関連論文リスト
- Geometry-Guided Reinforcement Learning for Multi-view Consistent 3D Scene Editing [106.07976338405793]
3次元編集における2次元拡散モデルの先行的活用は、有望なパラダイムとして現れている。
我々は3次元基礎モデルであるVGGTから得られた新たな報酬を用いて、強化学習によって駆動されるシングルパスフレームワークであるtextbfRL3DEditを提案する。
実験により、RL3DEditは安定したマルチビューの一貫性を実現し、高い効率で品質を編集する最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2026-03-03T16:31:10Z) - Easy3E: Feed-Forward 3D Asset Editing via Rectified Voxel Flow [29.8200628539749]
TRELLIS生成バックボーンに基づく,効果的かつ完全なフィードフォワード3D編集フレームワークを提案する。
本フレームワークは,3次元表現に自由な2次元編集を適用すること,圧縮された3次元特徴の外観忠実性のボトルネックを克服すること,の2つの主要な課題に対処する。
論文 参考訳(メタデータ) (2026-02-25T02:15:14Z) - Fast Multi-view Consistent 3D Editing with Video Priors [19.790628738739354]
生成ビデオ優先型3D編集(ViP3DE)を提案する。
私たちの重要な洞察は、ビデオ生成モデルを1つの編集されたビューに条件付けして、他の一貫した編集されたビューを生成して、直接3D更新することです。
提案したViP3DEは,1回のフォワードパスでも高品質な3D編集結果が得られる。
論文 参考訳(メタデータ) (2025-11-28T13:31:10Z) - Native 3D Editing with Full Attention [47.908091876301796]
本研究では,1つのフィードフォワードパスで直接3D表現を操作できる新しい3D編集フレームワークを提案する。
このデータセットは慎重にキュレーションされ、編集されたオブジェクトが命令の変更に忠実に従うことを保証する。
その結果,トークンの連結はパラメータ効率が良く,優れた性能が得られることがわかった。
論文 参考訳(メタデータ) (2025-11-21T18:59:26Z) - 3D-LATTE: Latent Space 3D Editing from Textual Instructions [64.77718887666312]
本研究では,ネイティブな3次元拡散モデルの潜在空間内で動作する学習自由な編集手法を提案する。
生成元からの3Dアテンションマップとソースオブジェクトをブレンドすることで、編集合成をガイドする。
論文 参考訳(メタデータ) (2025-08-29T22:51:59Z) - MvDrag3D: Drag-based Creative 3D Editing via Multi-view Generation-Reconstruction Priors [19.950368071777092]
既存の3Dドラッグベースの編集方法は、重要なトポロジ変更の処理や、さまざまなオブジェクトカテゴリにまたがる新しいテクスチャの生成に不足している。
我々は、より柔軟で創造的なドラッグベースの3D編集のための新しいフレームワークMVDrag3Dを紹介する。
MVDrag3Dは3Dドラッグベース編集のための正確で生成的で柔軟なソリューションであることを示す。
論文 参考訳(メタデータ) (2024-10-21T17:59:53Z) - Coin3D: Controllable and Interactive 3D Assets Generation with Proxy-Guided Conditioning [52.81032340916171]
Coin3Dを使えば、ユーザーは基本的な形状から組み立てられた粗い幾何学的プロキシを使って3D生成を制御できる。
本手法は,3次元アセット生成タスクにおいて,制御性と柔軟性に優れる。
論文 参考訳(メタデータ) (2024-05-13T17:56:13Z) - View-Consistent 3D Editing with Gaussian Splatting [50.6460814430094]
View-Consistent Editing (VcEdit)は、3DGSをシームレスに画像編集プロセスに組み込む新しいフレームワークである。
一貫性モジュールを反復パターンに組み込むことで、VcEditはマルチビューの不整合の問題を十分に解決する。
論文 参考訳(メタデータ) (2024-03-18T15:22:09Z) - Plasticine3D: 3D Non-Rigid Editing with Text Guidance by Multi-View Embedding Optimization [21.8454418337306]
本研究では,3次元非剛性編集が可能なテキスト誘導型3D編集パイプラインであるPlastine3Dを提案する。
本研究は,編集過程を幾何学的編集段階とテクスチャ的編集段階に分割し,構造と外観を別々に制御する。
細粒度制御のために,埋め込み空間の編集目的と原特徴を融合させるエンベディング・フュージョン (EF) を提案する。
論文 参考訳(メタデータ) (2023-12-15T09:01:54Z) - Efficient-NeRF2NeRF: Streamlining Text-Driven 3D Editing with Multiview
Correspondence-Enhanced Diffusion Models [83.97844535389073]
3Dコンテンツ編集の普及を妨げている大きな障害は、その時間集約的な処理である。
共振器の正規化を拡散モデルに組み込むことで,3次元編集のプロセスを大幅に高速化できることを示す。
多くのシナリオにおいて,提案手法はベースライン法と比較して10$times$の高速化を実現し,2分で3Dシーンの編集を完了させる。
論文 参考訳(メタデータ) (2023-12-13T23:27:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。