論文の概要: From One to More: Contextual Part Latents for 3D Generation
- arxiv url: http://arxiv.org/abs/2507.08772v1
- Date: Fri, 11 Jul 2025 17:33:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-14 18:03:54.447928
- Title: From One to More: Contextual Part Latents for 3D Generation
- Title(参考訳): 1つからそれ以上:3D生成のためのコンテキスト部分ラテント
- Authors: Shaocong Dong, Lihe Ding, Xiao Chen, Yaokun Li, Yuxin Wang, Yucheng Wang, Qi Wang, Jaehyeok Kim, Chenjian Gao, Zhanpeng Huang, Zibin Wang, Tianfan Xue, Dan Xu,
- Abstract要約: CoPartは、コヒーレントなマルチパーツ生成のために、3Dオブジェクトをコンテキスト部分潜在子に分解する、部分認識拡散フレームワークである。
そこで我々は,メッシュセグメンテーションと人間検証アノテーションから得られた新しい3次元部分データセットを構築した。
実験では、パートレベルの編集、オブジェクト生成、シーン構成において、前例のない制御性を持つCoPartの優れた能力を実証した。
- 参考スコア(独自算出の注目度): 33.43336981984443
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advances in 3D generation have transitioned from multi-view 2D rendering approaches to 3D-native latent diffusion frameworks that exploit geometric priors in ground truth data. Despite progress, three key limitations persist: (1) Single-latent representations fail to capture complex multi-part geometries, causing detail degradation; (2) Holistic latent coding neglects part independence and interrelationships critical for compositional design; (3) Global conditioning mechanisms lack fine-grained controllability. Inspired by human 3D design workflows, we propose CoPart - a part-aware diffusion framework that decomposes 3D objects into contextual part latents for coherent multi-part generation. This paradigm offers three advantages: i) Reduces encoding complexity through part decomposition; ii) Enables explicit part relationship modeling; iii) Supports part-level conditioning. We further develop a mutual guidance strategy to fine-tune pre-trained diffusion models for joint part latent denoising, ensuring both geometric coherence and foundation model priors. To enable large-scale training, we construct Partverse - a novel 3D part dataset derived from Objaverse through automated mesh segmentation and human-verified annotations. Extensive experiments demonstrate CoPart's superior capabilities in part-level editing, articulated object generation, and scene composition with unprecedented controllability.
- Abstract(参考訳): 近年の3D生成の進歩は、多視点2Dレンダリングアプローチから、基底真理データの幾何学的先行性を利用する3Dネイティブ潜伏拡散フレームワークへと移行している。
1) 単一遅延表現は複雑な多部分ジオメトリを捕捉できず、詳細劣化を引き起こす; (2) 完全遅延符号化は、構成設計に不可欠な部分独立性と相互関係を無視している; (3) グローバルコンディショニング機構は、きめ細かい制御性を欠いている。
人間の3DデザインワークフローにインスパイアされたCoPartは,コヒーレントな多部生成のために,3Dオブジェクトをコンテキスト的部分潜在子に分解する分散フレームワークである。
このパラダイムには3つの利点があります。
一 部分分解によるエンコーディングの複雑さの低減
二 明示的な部分関係モデリングを可能にすること。
三 パートレベルコンディショニングを支援すること。
我々はさらに,関節部遅延化のための微調整済み拡散モデルのための相互誘導戦略を開発し,幾何学的コヒーレンスと基礎モデルの両方の先行性を保証した。
大規模トレーニングを実現するために,Objaverseから自動メッシュセグメンテーションと人間検証アノテーションを通じて派生した新しい3D部分データセットであるPartverseを構築した。
大規模な実験は、CoPartのパートレベルの編集、オーケストレートオブジェクト生成、前例のない制御性を持つシーン構成における優れた能力を実証している。
関連論文リスト
- OmniPart: Part-Aware 3D Generation with Semantic Decoupling and Structural Cohesion [31.767548415448957]
我々は,パートアウェアな3Dオブジェクト生成のための新しいフレームワークであるOmniPartを紹介する。
提案手法は,ユーザ定義部分の粒度,高精度なローカライゼーションをサポートし,多様な下流アプリケーションを実現する。
論文 参考訳(メタデータ) (2025-07-08T16:46:15Z) - PartCrafter: Structured 3D Mesh Generation via Compositional Latent Diffusion Transformers [29.52313100024294]
1枚のRGB画像から複数の意味論的および幾何学的に異なる3Dメッシュを共同で合成する最初の構造化3D生成モデルであるPartCrafterを紹介する。
PartCrafterは同時に複数の3Dパーツを識別し、個々のオブジェクトと複雑な複数オブジェクトのシーンの両方をエンドツーエンドで生成する。
実験によると、PartCrafterは分解可能な3Dメッシュの生成において、既存のアプローチよりも優れています。
論文 参考訳(メタデータ) (2025-06-05T20:30:28Z) - DIPO: Dual-State Images Controlled Articulated Object Generation Powered by Diverse Data [67.99373622902827]
DIPOは、一対のイメージから調音された3Dオブジェクトを制御可能な生成するためのフレームワークである。
本稿では,イメージペア間の関係を捉え,部分配置と関節パラメータを生成するデュアルイメージ拡散モデルを提案する。
複雑な3Dオブジェクトの大規模データセットであるPM-Xについて,レンダリング画像,URDFアノテーション,テキスト記述を伴って提案する。
論文 参考訳(メタデータ) (2025-05-26T18:55:14Z) - PRISM: Probabilistic Representation for Integrated Shape Modeling and Generation [79.46526296655776]
PRISMは、カテゴリー拡散モデルと統計的形状モデル(SSM)とガウス混合モデル(GMM)を統合した3次元形状生成の新しいアプローチである
本手法では,構成SSMを用いて部分レベルの幾何学的変動をキャプチャし,GMMを用いて連続空間における部分意味を表現する。
提案手法は,パートレベルの操作の品質と制御性の両方において,従来の手法よりも優れていた。
論文 参考訳(メタデータ) (2025-04-06T11:48:08Z) - DecompDreamer: Advancing Structured 3D Asset Generation with Multi-Object Decomposition and Gaussian Splatting [24.719972380079405]
DecompDreamerは高品質な3D合成を生成するために設計されたトレーニングルーチンである。
シーンを構成されたコンポーネントとその関係に分解する。
オブジェクトの絡み合いが優れている複雑な3D組成物を効果的に生成する。
論文 参考訳(メタデータ) (2025-03-15T03:37:25Z) - DiHuR: Diffusion-Guided Generalizable Human Reconstruction [51.31232435994026]
一般化可能なヒト3次元再構成のための拡散誘導モデルであるDiHuRを導入し,スパース・ミニマル・オーバーラップ画像からのビュー合成について述べる。
提案手法は, 一般化可能なフィードフォワードモデルと2次元拡散モデルとの2つのキー前処理をコヒーレントな方法で統合する。
論文 参考訳(メタデータ) (2024-11-16T03:52:23Z) - Enhancing Generalizability of Representation Learning for Data-Efficient 3D Scene Understanding [50.448520056844885]
本研究では,実世界のパターンを持つ多様な合成シーンを生成可能なベイズネットワークを提案する。
一連の実験は、既存の最先端の事前学習手法に比べて、我々の手法が一貫した優位性を示す。
論文 参考訳(メタデータ) (2024-06-17T07:43:53Z) - Part123: Part-aware 3D Reconstruction from a Single-view Image [54.589723979757515]
Part123は、一視点画像から部分認識された3D再構成のための新しいフレームワークである。
ニューラルレンダリングフレームワークにコントラスト学習を導入し、部分認識機能空間を学習する。
クラスタリングに基づくアルゴリズムも開発され、再構成されたモデルから3次元部分分割結果を自動的に導出する。
論文 参考訳(メタデータ) (2024-05-27T07:10:21Z) - Learning Unsupervised Hierarchical Part Decomposition of 3D Objects from
a Single RGB Image [102.44347847154867]
プリミティブの集合として3次元オブジェクトの幾何を共同で復元できる新しい定式化を提案する。
我々のモデルは、プリミティブのバイナリツリーの形で、様々なオブジェクトの高レベルな構造的分解を復元する。
ShapeNet と D-FAUST のデータセットを用いた実験により,部品の組織化を考慮すれば3次元形状の推論が容易になることが示された。
論文 参考訳(メタデータ) (2020-04-02T17:58:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。