論文の概要: OmniPart: Part-Aware 3D Generation with Semantic Decoupling and Structural Cohesion
- arxiv url: http://arxiv.org/abs/2507.06165v1
- Date: Tue, 08 Jul 2025 16:46:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-09 16:34:38.353561
- Title: OmniPart: Part-Aware 3D Generation with Semantic Decoupling and Structural Cohesion
- Title(参考訳): OmniPart: セマンティックデカップリングと構造結合による部品認識3D生成
- Authors: Yunhan Yang, Yufan Zhou, Yuan-Chen Guo, Zi-Xin Zou, Yukun Huang, Ying-Tian Liu, Hao Xu, Ding Liang, Yan-Pei Cao, Xihui Liu,
- Abstract要約: 我々は,パートアウェアな3Dオブジェクト生成のための新しいフレームワークであるOmniPartを紹介する。
提案手法は,ユーザ定義部分の粒度,高精度なローカライゼーションをサポートし,多様な下流アプリケーションを実現する。
- 参考スコア(独自算出の注目度): 31.767548415448957
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The creation of 3D assets with explicit, editable part structures is crucial for advancing interactive applications, yet most generative methods produce only monolithic shapes, limiting their utility. We introduce OmniPart, a novel framework for part-aware 3D object generation designed to achieve high semantic decoupling among components while maintaining robust structural cohesion. OmniPart uniquely decouples this complex task into two synergistic stages: (1) an autoregressive structure planning module generates a controllable, variable-length sequence of 3D part bounding boxes, critically guided by flexible 2D part masks that allow for intuitive control over part decomposition without requiring direct correspondences or semantic labels; and (2) a spatially-conditioned rectified flow model, efficiently adapted from a pre-trained holistic 3D generator, synthesizes all 3D parts simultaneously and consistently within the planned layout. Our approach supports user-defined part granularity, precise localization, and enables diverse downstream applications. Extensive experiments demonstrate that OmniPart achieves state-of-the-art performance, paving the way for more interpretable, editable, and versatile 3D content.
- Abstract(参考訳): 明示的で編集可能な部分構造を持つ3Dアセットの作成は、インタラクティブなアプリケーションを進める上で非常に重要であるが、ほとんどの生成手法はモノリシックな形状しか生成せず、有用性を制限している。
OmniPartは、コンポーネント間のセマンティックデカップリングを実現するために設計され、ロバストな構造的凝集を維持しつつ、新しい3Dオブジェクト生成フレームワークである。
OmniPart はこの複雑なタスクを,(1) 自己回帰型構造計画モジュールが制御可能な可変長の3D部分境界ボックスを生成する。(2) 直接の通信やセマンティックラベルを必要とせずに,部分分解を直感的に制御できるフレキシブルな2D部分マスクを,(2) 事前訓練されたホロスティックな3Dジェネレータから効率的に適応した空間条件の整流モデルで,同時に,計画されたレイアウト内で連続的に3D部品を合成する。
提案手法は,ユーザ定義部分の粒度,高精度なローカライゼーションをサポートし,多様な下流アプリケーションを実現する。
大規模な実験により、OmniPartは最先端のパフォーマンスを達成し、より解釈可能で編集可能で多目的な3Dコンテンツへの道を開いた。
関連論文リスト
- Efficient Part-level 3D Object Generation via Dual Volume Packing [51.712083185732894]
パートレベルの3Dオブジェクト生成のための新しいエンドツーエンドフレームワークを提案する。
提案手法は,任意の数の完全かつ意味論的に意味のある部分を持つ高品質な3Dオブジェクトを生成する。
論文 参考訳(メタデータ) (2025-06-11T17:55:03Z) - PartCrafter: Structured 3D Mesh Generation via Compositional Latent Diffusion Transformers [29.52313100024294]
1枚のRGB画像から複数の意味論的および幾何学的に異なる3Dメッシュを共同で合成する最初の構造化3D生成モデルであるPartCrafterを紹介する。
PartCrafterは同時に複数の3Dパーツを識別し、個々のオブジェクトと複雑な複数オブジェクトのシーンの両方をエンドツーエンドで生成する。
実験によると、PartCrafterは分解可能な3Dメッシュの生成において、既存のアプローチよりも優れています。
論文 参考訳(メタデータ) (2025-06-05T20:30:28Z) - Structurally Disentangled Feature Fields Distillation for 3D Understanding and Editing [14.7298711927857]
本稿では,複数の不整形特徴場を用いて3次元特徴量を捉えることを提案する。
各要素は分離して制御することができ、意味的および構造的理解と編集を可能にする。
論文 参考訳(メタデータ) (2025-02-20T18:09:27Z) - PartSDF: Part-Based Implicit Neural Representation for Composite 3D Shape Parametrization and Optimization [38.822156749041206]
PartSDFは教師付き暗黙の表現フレームワークで、独立して制御可能なパーツで合成形状を明示的にモデル化する。
PartSDFは、再構築および生成タスクにおいて、教師なしベースラインと教師なしベースラインの両方を上回っている。
論文 参考訳(メタデータ) (2025-02-18T16:08:47Z) - Chirpy3D: Creative Fine-grained 3D Object Fabrication via Part Sampling [128.23917788822948]
Chirpy3Dは、ゼロショット設定で微細な3Dオブジェクトを生成するための新しいアプローチである。
モデルは、可塑性な3D構造を推測し、きめ細かい細部を捉え、新しい物体に一般化する必要がある。
我々の実験では、Cirpy3Dは、高品質できめ細かな細部を持つ創造的な3Dオブジェクトを生成する既存の手法を超越していることが示されている。
論文 参考訳(メタデータ) (2025-01-07T21:14:11Z) - PartGen: Part-level 3D Generation and Reconstruction with Multi-View Diffusion Models [63.1432721793683]
テキスト,画像,構造化されていない3Dオブジェクトから意味のある部分からなる3Dオブジェクトを生成する新しいアプローチであるPartGenを紹介する。
提案手法は, 生成された実物および実物の3次元資産に対して評価し, セグメンテーションおよび部分抽出ベースラインを大きなマージンで上回っていることを示す。
論文 参考訳(メタデータ) (2024-12-24T18:59:43Z) - 3D Part Segmentation via Geometric Aggregation of 2D Visual Features [57.20161517451834]
監督された3D部分分割モデルは、固定されたオブジェクトと部品のセットに合わせて調整されており、それらの転送可能性は、オープンセットの現実世界のシナリオに制限される。
近年、視覚言語モデル(VLM)を多視点レンダリングとテキストプロンプトを用いてオブジェクト部品の識別に活用する研究が進められている。
これらの制約に対処するために,視覚概念から抽出した意味論と3次元幾何学をブレンドし,対象部品を効果的に同定するCOPSを提案する。
論文 参考訳(メタデータ) (2024-12-05T15:27:58Z) - 3DLatNav: Navigating Generative Latent Spaces for Semantic-Aware 3D
Object Manipulation [2.8661021832561757]
3D生成モデルは、最近、点雲という形で現実的な3Dオブジェクトを生成することに成功した。
ほとんどのモデルは、広範囲なセマンティックラベルや他の参照ポイントクラウドなしでコンポーネントオブジェクトの形状セマンティクスを操作するための制御性を提供していません。
本稿では3DLatNavを提案する。3Dオブジェクトの制御部分レベルのセマンティック操作を可能にするために,事前学習された潜在空間をナビゲートする新しいアプローチである。
論文 参考訳(メタデータ) (2022-11-17T18:47:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。