論文の概要: GeoSAM2: Unleashing the Power of SAM2 for 3D Part Segmentation
- arxiv url: http://arxiv.org/abs/2508.14036v1
- Date: Tue, 19 Aug 2025 17:58:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-20 15:36:32.039844
- Title: GeoSAM2: Unleashing the Power of SAM2 for 3D Part Segmentation
- Title(参考訳): GeoSAM2: 3DパーツセグメンテーションのためのSAM2のパワーを開放する
- Authors: Ken Deng, Yunhan Yang, Jingxiang Sun, Xihui Liu, Yebin Liu, Ding Liang, Yan-Pei Cao,
- Abstract要約: DetailGen3Dは、生成された3D形状を強化するために特別に設計されたジェネレーティブなアプローチである。
我々の重要な洞察は、潜在空間におけるデータ依存フローを通して、粗大から細小への変換を直接モデル化することである。
改質時に正確な空間対応を確保するためのトークンマッチング戦略を導入する。
- 参考スコア(独自算出の注目度): 43.357136760060854
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Modern 3D generation methods can rapidly create shapes from sparse or single views, but their outputs often lack geometric detail due to computational constraints. We present DetailGen3D, a generative approach specifically designed to enhance these generated 3D shapes. Our key insight is to model the coarse-to-fine transformation directly through data-dependent flows in latent space, avoiding the computational overhead of large-scale 3D generative models. We introduce a token matching strategy that ensures accurate spatial correspondence during refinement, enabling local detail synthesis while preserving global structure. By carefully designing our training data to match the characteristics of synthesized coarse shapes, our method can effectively enhance shapes produced by various 3D generation and reconstruction approaches, from single-view to sparse multi-view inputs. Extensive experiments demonstrate that DetailGen3D achieves high-fidelity geometric detail synthesis while maintaining efficiency in training.
- Abstract(参考訳): 現代の3D生成法はスパースやシングルビューから急速に形状を生成できるが、その出力は計算上の制約のために幾何学的詳細を欠くことが多い。
DetailGen3Dは、これらの生成した3次元形状を強化するために特別に設計された生成手法である。
我々の重要な洞察は、大規模3次元生成モデルの計算オーバーヘッドを回避し、潜在空間におけるデータ依存フローを通して、粗大から細小への変換を直接モデル化することである。
我々は,グローバルな構造を維持しつつ,局所的な詳細合成を可能にする,改良中の正確な空間対応を実現するトークンマッチング戦略を導入する。
合成した粗い形状の特性に合わせたトレーニングデータを慎重に設計することにより, 単視点からスパースな多視点入力に至るまで, 様々な3次元生成および再構成手法によって生成される形状を効果的に向上させることができる。
広範囲な実験により、DetailGen3Dはトレーニングの効率を保ちながら、高忠実度な幾何学的詳細合成を実現することが示された。
関連論文リスト
- DetailGen3D: Generative 3D Geometry Enhancement via Data-Dependent Flow [44.72037991063735]
DetailGen3Dは、生成された3D形状を強化するために特別に設計されたジェネレーティブなアプローチである。
我々の重要な洞察は、潜在空間におけるデータ依存フローを通して、粗大から細小への変換を直接モデル化することである。
改質時に正確な空間対応を確保するためのトークンマッチング戦略を導入する。
論文 参考訳(メタデータ) (2024-11-25T17:08:17Z) - NeuSDFusion: A Spatial-Aware Generative Model for 3D Shape Completion, Reconstruction, and Generation [52.772319840580074]
3D形状生成は、特定の条件や制約に固執する革新的な3Dコンテンツを作成することを目的としている。
既存の方法は、しばしば3Dの形状を局所化されたコンポーネントの列に分解し、各要素を分離して扱う。
本研究では2次元平面表現を利用した空間認識型3次元形状生成フレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-27T04:09:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。