論文の概要: Make Your MoVe: Make Your 3D Contents by Adapting Multi-View Diffusion Models to External Editing
- arxiv url: http://arxiv.org/abs/2508.07700v1
- Date: Mon, 11 Aug 2025 07:23:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-12 21:23:28.987726
- Title: Make Your MoVe: Make Your 3D Contents by Adapting Multi-View Diffusion Models to External Editing
- Title(参考訳): MoVeを作る: 外部編集にマルチビュー拡散モデルを適用することで3Dコンテンツを作る
- Authors: Weitao Wang, Haoran Xu, Jun Meng, Haoqian Wang,
- Abstract要約: 本研究では,編集された資産と元の幾何学を1つの推論実行で整列する,チューニング不要なプラグイン・アンド・プレイ方式を提案する。
編集された3Dアセットのマルチビュー整合性とメッシュ品質を一貫して改善する。
- 参考スコア(独自算出の注目度): 26.563801961090544
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: As 3D generation techniques continue to flourish, the demand for generating personalized content is rapidly rising. Users increasingly seek to apply various editing methods to polish generated 3D content, aiming to enhance its color, style, and lighting without compromising the underlying geometry. However, most existing editing tools focus on the 2D domain, and directly feeding their results into 3D generation methods (like multi-view diffusion models) will introduce information loss, degrading the quality of the final 3D assets. In this paper, we propose a tuning-free, plug-and-play scheme that aligns edited assets with their original geometry in a single inference run. Central to our approach is a geometry preservation module that guides the edited multi-view generation with original input normal latents. Besides, an injection switcher is proposed to deliberately control the supervision extent of the original normals, ensuring the alignment between the edited color and normal views. Extensive experiments show that our method consistently improves both the multi-view consistency and mesh quality of edited 3D assets, across multiple combinations of multi-view diffusion models and editing methods.
- Abstract(参考訳): 3D生成技術が発展を続けるにつれ、パーソナライズされたコンテンツへの需要は急速に高まっている。
ユーザは、色、スタイル、照明を改良し、基礎となる幾何学を損なうことなく、様々な編集方法を、生成した3Dコンテンツに応用したいと考えている。
しかし、既存の編集ツールのほとんどは2Dドメインに焦点を当てており、結果を直接3D生成方法(マルチビュー拡散モデルなど)に入力することで、最終的な3Dアセットの品質を低下させる。
本稿では,単一の推論実行において,編集された資産を元の幾何学と整合させる,チューニング不要なプラグアンドプレイ方式を提案する。
我々のアプローチの中心は、編集された複数ビュー生成を元の入力正規潜水器でガイドする幾何学保存モジュールである。
さらに、原規格の監督範囲を意図的に制御し、編集色と通常のビューとの整合性を確保するために、注入切換器を提案する。
広汎な実験により,多視点拡散モデルと編集手法の組み合わせにより,編集された3Dアセットのマルチビュー一貫性とメッシュ品質を一貫して改善することが示された。
関連論文リスト
- View-Consistent 3D Editing with Gaussian Splatting [50.6460814430094]
View-Consistent Editing (VcEdit)は、3DGSをシームレスに画像編集プロセスに組み込む新しいフレームワークである。
一貫性モジュールを反復パターンに組み込むことで、VcEditはマルチビューの不整合の問題を十分に解決する。
論文 参考訳(メタデータ) (2024-03-18T15:22:09Z) - Plasticine3D: 3D Non-Rigid Editing with Text Guidance by Multi-View Embedding Optimization [21.8454418337306]
本研究では,3次元非剛性編集が可能なテキスト誘導型3D編集パイプラインであるPlastine3Dを提案する。
本研究は,編集過程を幾何学的編集段階とテクスチャ的編集段階に分割し,構造と外観を別々に制御する。
細粒度制御のために,埋め込み空間の編集目的と原特徴を融合させるエンベディング・フュージョン (EF) を提案する。
論文 参考訳(メタデータ) (2023-12-15T09:01:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。