論文の概要: CraftMesh: High-Fidelity Generative Mesh Manipulation via Poisson Seamless Fusion
- arxiv url: http://arxiv.org/abs/2509.13688v1
- Date: Wed, 17 Sep 2025 04:35:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-18 18:41:50.71816
- Title: CraftMesh: High-Fidelity Generative Mesh Manipulation via Poisson Seamless Fusion
- Title(参考訳): CraftMesh:Poisson Seamless Fusionによる高忠実な生成メッシュ操作
- Authors: James Jincheng, Youcheng Cai, Ligang Liu,
- Abstract要約: CraftMeshはPoisson Seamless Fusionによる高忠実な生成メッシュ操作のための新しいフレームワークである。
2D参照画像を編集し、リージョン固有の3Dメッシュを生成し、それを元のモデルにシームレスに融合する。
実験の結果、CraftMeshは最先端の手法よりも優れ、優れたグローバル一貫性とローカルディテールを提供することが示された。
- 参考スコア(独自算出の注目度): 10.854829556974572
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Controllable, high-fidelity mesh editing remains a significant challenge in 3D content creation. Existing generative methods often struggle with complex geometries and fail to produce detailed results. We propose CraftMesh, a novel framework for high-fidelity generative mesh manipulation via Poisson Seamless Fusion. Our key insight is to decompose mesh editing into a pipeline that leverages the strengths of 2D and 3D generative models: we edit a 2D reference image, then generate a region-specific 3D mesh, and seamlessly fuse it into the original model. We introduce two core techniques: Poisson Geometric Fusion, which utilizes a hybrid SDF/Mesh representation with normal blending to achieve harmonious geometric integration, and Poisson Texture Harmonization for visually consistent texture blending. Experimental results demonstrate that CraftMesh outperforms state-of-the-art methods, delivering superior global consistency and local detail in complex editing tasks.
- Abstract(参考訳): コントロール可能な高忠実度メッシュ編集は、3Dコンテンツ作成において依然として大きな課題である。
既存の生成法は複雑な地形に苦しむことが多く、詳細な結果が得られない。
本稿では,Poisson Seamless Fusion による高忠実性生成メッシュ操作のための新しいフレームワーク CraftMesh を提案する。
私たちは、2D参照画像を編集し、リージョン固有の3Dメッシュを生成し、それを元のモデルにシームレスに融合するという、2Dおよび3D生成モデルの強みを活用するパイプラインにメッシュ編集を分解することです。
2つのコア技術を紹介する: Poisson Geometric Fusionは、通常のブレンディングによるハイブリッドSDF/Mesh表現を利用して調和した幾何積分を実現し、Poisson Texture Harmonizationは視覚的に一貫したテクスチャブレンディングを実現する。
実験の結果、CraftMeshは最先端のメソッドよりも優れており、複雑な編集タスクにおいて、より優れたグローバル一貫性とローカルディテールを提供します。
関連論文リスト
- 2D Triangle Splatting for Direct Differentiable Mesh Training [4.161453036693641]
2DTS(2D Triangle Splatting)は、3次元ガウス原始体を2次元三角形のフェーレットに置き換える新しい方法である。
三角形プリミティブにコンパクト性パラメータを組み込むことで、光現実性メッシュの直接訓練を可能にする。
提案手法は,既存のメッシュ再構成手法と比較して,視覚的品質の優れた再構成メッシュを生成する。
論文 参考訳(メタデータ) (2025-06-23T12:26:47Z) - MeshCraft: Exploring Efficient and Controllable Mesh Generation with Flow-based DiTs [79.45006864728893]
MeshCraftは、効率的かつ制御可能なメッシュ生成のためのフレームワークである。
連続的な空間拡散を用いて、離散的な三角形の面を生成する。
800面のメッシュを3.2秒で生成できる。
論文 参考訳(メタデータ) (2025-03-29T09:21:50Z) - MeshPad: Interactive Sketch-Conditioned Artist-Reminiscent Mesh Generation and Editing [64.84885028248395]
MeshPadは、スケッチ入力から3Dメッシュを生成するジェネレーティブなアプローチである。
我々は、メッシュの領域の"削除"に編集を分解し、新しいメッシュ幾何学の"追加"に続き、一貫した編集を可能にすることに重点を置いている。
提案手法は,メッシュ三角形の追加と削除のために,大規模なTransformerモデルを利用した三角形列に基づくメッシュ表現に基づいている。
論文 参考訳(メタデータ) (2025-03-03T11:27:44Z) - DreamMesh4D: Video-to-4D Generation with Sparse-Controlled Gaussian-Mesh Hybrid Representation [10.250715657201363]
本稿では,メッシュ表現と幾何スキン技術を組み合わせた新しいフレームワークDreamMesh4Dを紹介し,モノクロビデオから高品質な4Dオブジェクトを生成する。
我々の手法は現代のグラフィックパイプラインと互換性があり、3Dゲームや映画産業におけるその可能性を示している。
論文 参考訳(メタデータ) (2024-10-09T10:41:08Z) - DreamMesh: Jointly Manipulating and Texturing Triangle Meshes for Text-to-3D Generation [149.77077125310805]
我々はDreamMeshを提案する。DreamMeshは、明確に定義された表面(三角形メッシュ)をピボットして高忠実な3Dモデルを生成する、新しいテキスト・ツー・3Dアーキテクチャである。
粗い段階では、メッシュはまずテキスト誘導ジャコビアンによって変形し、その後DreamMeshは2D拡散モデルを用いてメッシュをテクスチャ化する。
細かい段階では、DreamMeshはメッシュを共同で操作し、テクスチャマップを洗練し、高品質なトライアングルメッシュを高忠実なテクスチャ素材で実現する。
論文 参考訳(メタデータ) (2024-09-11T17:59:02Z) - Hybrid Explicit Representation for Ultra-Realistic Head Avatars [55.829497543262214]
我々は,超現実的な頭部アバターを作成し,それをリアルタイムにレンダリングする新しい手法を提案する。
UVマップされた3Dメッシュは滑らかな表面のシャープでリッチなテクスチャを捉えるのに使われ、3Dガウス格子は複雑な幾何学構造を表現するために用いられる。
モデル化された結果が最先端のアプローチを上回る実験を行ないました。
論文 参考訳(メタデータ) (2024-03-18T04:01:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。