論文の概要: VecSet-Edit: Unleashing Pre-trained LRM for Mesh Editing from Single Image
- arxiv url: http://arxiv.org/abs/2602.04349v1
- Date: Wed, 04 Feb 2026 09:16:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-05 19:45:11.450035
- Title: VecSet-Edit: Unleashing Pre-trained LRM for Mesh Editing from Single Image
- Title(参考訳): VecSet-Edit: 単一のイメージからメッシュ編集のためのトレーニング済みのLRMを公開
- Authors: Teng-Fang Hsiao, Bo-Kai Ruan, Yu-Lun Liu, Hong-Han Shuai,
- Abstract要約: textbfVecSet-Editは、メッシュ編集のバックボーンとして高忠実度VecSet Large Reconstruction Model(LRM)を利用する最初のパイプラインである。
我々のアプローチは、VecSetトークンの空間的特性の分析に基づいており、トークンサブセットが異なる幾何学的領域を支配していることを明らかにする。
我々のDetail-Preserving Texture Bakingモジュールは、元のメッシュの幾何学的詳細だけでなく、テクスチャ情報も保存することを保証します。
- 参考スコア(独自算出の注目度): 30.070130741253724
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: 3D editing has emerged as a critical research area to provide users with flexible control over 3D assets. While current editing approaches predominantly focus on 3D Gaussian Splatting or multi-view images, the direct editing of 3D meshes remains underexplored. Prior attempts, such as VoxHammer, rely on voxel-based representations that suffer from limited resolution and necessitate labor-intensive 3D mask. To address these limitations, we propose \textbf{VecSet-Edit}, the first pipeline that leverages the high-fidelity VecSet Large Reconstruction Model (LRM) as a backbone for mesh editing. Our approach is grounded on a analysis of the spatial properties in VecSet tokens, revealing that token subsets govern distinct geometric regions. Based on this insight, we introduce Mask-guided Token Seeding and Attention-aligned Token Gating strategies to precisely localize target regions using only 2D image conditions. Also, considering the difference between VecSet diffusion process versus voxel we design a Drift-aware Token Pruning to reject geometric outliers during the denoising process. Finally, our Detail-preserving Texture Baking module ensures that we not only preserve the geometric details of original mesh but also the textural information. More details can be found in our project page: https://github.com/BlueDyee/VecSet-Edit/tree/main
- Abstract(参考訳): 3D編集は、3Dアセットを柔軟に制御するための重要な研究分野として浮上した。
現在の編集アプローチは、主に3Dガウススプラッティングやマルチビュー画像に焦点を当てているが、3Dメッシュの直接編集は未検討である。
VoxHammerのような以前の試みは、限られた解像度と労働集約型3Dマスクに苦しむボクセルベースの表現に依存していた。
これらの制約に対処するため,高忠実度VecSet大再構成モデル(LRM)をメッシュ編集のバックボーンとして活用する最初のパイプラインである \textbf{VecSet-Edit} を提案する。
我々のアプローチは、VecSetトークンの空間的特性の分析に基づいており、トークンサブセットが異なる幾何学的領域を支配していることを明らかにする。
この知見に基づいて,2次元画像条件のみを用いて,ターゲット領域を正確に位置決めするマスク誘導のトークンシーディングとアテンション対応のトークンゲーティング戦略を導入する。
また,VecSet拡散過程とボクセルとの差を考慮し,デノナイジング過程における幾何異常を除去するためにドリフト対応のトケンプルーニングを設計する。
最後に、Detail-Preserving Texture Bakingモジュールは、元のメッシュの幾何学的詳細だけでなく、テクスチャ情報も保存することを保証します。
詳細はプロジェクトのページにある。 https://github.com/BlueDyee/VecSet-Edit/tree/main
関連論文リスト
- MeshPad: Interactive Sketch-Conditioned Artist-Reminiscent Mesh Generation and Editing [64.84885028248395]
MeshPadは、スケッチ入力から3Dメッシュを生成するジェネレーティブなアプローチである。
我々は、メッシュの領域の"削除"に編集を分解し、新しいメッシュ幾何学の"追加"に続き、一貫した編集を可能にすることに重点を置いている。
提案手法は,メッシュ三角形の追加と削除のために,大規模なTransformerモデルを利用した三角形列に基づくメッシュ表現に基づいている。
論文 参考訳(メタデータ) (2025-03-03T11:27:44Z) - MaTe3D: Mask-guided Text-based 3D-aware Portrait Editing [61.014328598895524]
textbfMaTe3D:マスク誘導型テキストベースの3D画像編集を提案する。
SDFに基づく新しい3Dジェネレータは,SDFと密度の整合性損失により局所的およびグローバルな表現を学習する。
幾何とテクスチャの条件蒸留(CDGT)は視覚的曖昧さを軽減し、テクスチャと幾何学のミスマッチを避ける。
論文 参考訳(メタデータ) (2023-12-12T03:04:08Z) - Mesh-Guided Neural Implicit Field Editing [42.78979161815414]
本稿では,ニューラルネットワークの編集におけるガイド機構としてメッシュを用いた新しいアプローチを提案する。
まず,ニューラル暗黙フィールドから多角形メッシュ抽出のためのマーチングテトラヘドラを用いた微分可能手法を提案する。
次に、この抽出メッシュにボリュームレンダリングから得られた色を割り当てるために、微分可能な色抽出器を設計する。
この差別化可能なカラーメッシュは、暗黙のメッシュから暗示のフィールドへの勾配のバックプロパゲーションを可能にし、ニューラルな暗示のフィールドの幾何学と色をユーザが容易に操作できるようにする。
論文 参考訳(メタデータ) (2023-12-04T18:59:58Z) - 3D Sketch-aware Semantic Scene Completion via Semi-supervised Structure
Prior [50.73148041205675]
セマンティック・シーン・コンプリート(SSC)タスクの目標は、単一視点で観察することで、ボリューム占有率とシーン内のオブジェクトの意味ラベルの完全な3Dボクセル表現を同時に予測することである。
低解像度のボクセル表現で深度情報を埋め込む新しい幾何学的手法を提案する。
提案手法は,SSCフレームワークからの深度特徴学習よりも有効である。
論文 参考訳(メタデータ) (2020-03-31T09:33:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。