論文の概要: FullPart: Generating each 3D Part at Full Resolution
- arxiv url: http://arxiv.org/abs/2510.26140v1
- Date: Thu, 30 Oct 2025 04:51:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-31 16:05:09.663049
- Title: FullPart: Generating each 3D Part at Full Resolution
- Title(参考訳): フルパート:全解像度で各3Dパーツを生成する
- Authors: Lihe Ding, Shaocong Dong, Yaokun Li, Chenjian Gao, Xiao Chen, Rui Han, Yihao Kuang, Hong Zhang, Bo Huang, Zhanpeng Huang, Zibin Wang, Dan Xu, Tianfan Xue,
- Abstract要約: FullPartは暗黙のパラダイムと明示的なパラダイムを組み合わせた新しいフレームワークである。
それぞれが固定されたフル解像度のボクセルグリッド内で、詳細部分を生成する。
信頼性の高い部分データの不足に対処するため,40Kオブジェクトと320Kパーツで現在までに最大規模の人型アノテーション付き3DパーツデータセットであるPartVerse-XLを提案する。
- 参考スコア(独自算出の注目度): 33.98986324893688
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Part-based 3D generation holds great potential for various applications. Previous part generators that represent parts using implicit vector-set tokens often suffer from insufficient geometric details. Another line of work adopts an explicit voxel representation but shares a global voxel grid among all parts; this often causes small parts to occupy too few voxels, leading to degraded quality. In this paper, we propose FullPart, a novel framework that combines both implicit and explicit paradigms. It first derives the bounding box layout through an implicit box vector-set diffusion process, a task that implicit diffusion handles effectively since box tokens contain little geometric detail. Then, it generates detailed parts, each within its own fixed full-resolution voxel grid. Instead of sharing a global low-resolution space, each part in our method - even small ones - is generated at full resolution, enabling the synthesis of intricate details. We further introduce a center-point encoding strategy to address the misalignment issue when exchanging information between parts of different actual sizes, thereby maintaining global coherence. Moreover, to tackle the scarcity of reliable part data, we present PartVerse-XL, the largest human-annotated 3D part dataset to date with 40K objects and 320K parts. Extensive experiments demonstrate that FullPart achieves state-of-the-art results in 3D part generation. We will release all code, data, and model to benefit future research in 3D part generation.
- Abstract(参考訳): 部品ベースの3D生成は、様々なアプリケーションにとって大きな可能性を秘めている。
暗黙のベクトル集合トークンを使用する部分を表す以前の部分生成器は、しばしば幾何学的詳細が不足している。
別の行の作業は明示的なボクセル表現を採用するが、すべての部分でグローバルなボクセルグリッドを共有する。
本稿では,暗黙的パラダイムと明示的パラダイムを組み合わせた新しいフレームワークであるFullPartを提案する。
ボックストークンには幾何学的詳細がほとんどないため、暗黙のボックスベクトルセット拡散プロセス(暗黙の拡散処理)を通じて境界ボックスレイアウトを導出する。
そして、それぞれが自身の固定されたフル解像度のボクセルグリッド内で詳細部分を生成する。
グローバルな低解像度空間を共有する代わりに、我々の手法の各部分(小さい部分でさえ)は完全な解像度で生成され、複雑な詳細を合成することができる。
さらに、異なる実際のサイズの部品間で情報を交換する際に、不整合問題に対処するセンターポイント符号化戦略を導入し、グローバルコヒーレンスを維持する。
さらに、信頼性の高い部分データの不足に対処するため、40Kオブジェクトと320Kパーツで現在までに最大の人手による3D部分データセットであるPartVerse-XLを提案する。
広汎な実験により、FullPartは3Dパーツ生成において最先端の結果を達成することが示された。
3Dパートジェネレーションで将来の研究に役立てるために、すべてのコード、データ、モデルをリリースします。
関連論文リスト
- PartNeXt: A Next-Generation Dataset for Fine-Grained and Hierarchical 3D Part Understanding [65.55036443711528]
PartNeXtは、23,000以上の高品質なテクスチャ付き3Dモデルを持つ次世代データセットで、50のカテゴリにわたるきめ細かな階層的なパーツラベルがアノテートされている。
そこで我々は,(1)クラス非依存な部分分割,最先端の手法が細粒度や葉のレベルに苦しむ部分分割,(2)3D部分中心の質問応答,(3)オープン語彙の部分接地における大きなギャップを明らかにする3D-LLMsの新しいベンチマークの2つのタスクについて,PartNeXtをベンチマークした。
論文 参考訳(メタデータ) (2025-10-23T03:06:08Z) - Efficient Part-level 3D Object Generation via Dual Volume Packing [51.712083185732894]
パートレベルの3Dオブジェクト生成のための新しいエンドツーエンドフレームワークを提案する。
提案手法は,任意の数の完全かつ意味論的に意味のある部分を持つ高品質な3Dオブジェクトを生成する。
論文 参考訳(メタデータ) (2025-06-11T17:55:03Z) - HoloPart: Generative 3D Part Amodal Segmentation [23.84639726216676]
3D部分のアモーダルセグメンテーションは難しいが、3Dコンテンツの作成と理解にとって重要な課題だ。
2Dアモーダルセグメンテーションにインスパイアされたこの新しいタスクを3Dドメインに導入し、実用的な2段階のアプローチを提案する。
我々は,ABOおよびPart-Tinyデータセットに基づく新しいベンチマークを導入し,HoloPartが最先端の形状補完法を大幅に上回っていることを示す。
論文 参考訳(メタデータ) (2025-04-10T17:53:31Z) - PartGen: Part-level 3D Generation and Reconstruction with Multi-View Diffusion Models [63.1432721793683]
テキスト,画像,構造化されていない3Dオブジェクトから意味のある部分からなる3Dオブジェクトを生成する新しいアプローチであるPartGenを紹介する。
提案手法は, 生成された実物および実物の3次元資産に対して評価し, セグメンテーションおよび部分抽出ベースラインを大きなマージンで上回っていることを示す。
論文 参考訳(メタデータ) (2024-12-24T18:59:43Z) - 3D Part Segmentation via Geometric Aggregation of 2D Visual Features [57.20161517451834]
監督された3D部分分割モデルは、固定されたオブジェクトと部品のセットに合わせて調整されており、それらの転送可能性は、オープンセットの現実世界のシナリオに制限される。
近年、視覚言語モデル(VLM)を多視点レンダリングとテキストプロンプトを用いてオブジェクト部品の識別に活用する研究が進められている。
これらの制約に対処するために,視覚概念から抽出した意味論と3次元幾何学をブレンドし,対象部品を効果的に同定するCOPSを提案する。
論文 参考訳(メタデータ) (2024-12-05T15:27:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。