論文の概要: AutoPartGen: Autogressive 3D Part Generation and Discovery
- arxiv url: http://arxiv.org/abs/2507.13346v1
- Date: Thu, 17 Jul 2025 17:59:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-18 20:10:24.617849
- Title: AutoPartGen: Autogressive 3D Part Generation and Discovery
- Title(参考訳): AutoPartGen: 自動3Dパーツ生成と発見
- Authors: Minghao Chen, Jianyuan Wang, Roman Shapovalov, Tom Monnier, Hyunyoung Jung, Dilin Wang, Rakesh Ranjan, Iro Laina, Andrea Vedaldi,
- Abstract要約: 本稿では,3次元部品からなるオブジェクトを自己回帰的に生成するモデルであるAutoPartGenを紹介する。
このモデルは、オブジェクトの画像、オブジェクトの2Dマスク、または既存の3Dオブジェクトを入力として、対応する合成3D再構成を生成することができる。
我々はAutoPartGenの全体的な3D生成能力と部分レベル生成品質を評価し、3Dパーツ生成における最先端性能を実現することを実証した。
- 参考スコア(独自算出の注目度): 66.14255946353475
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce AutoPartGen, a model that generates objects composed of 3D parts in an autoregressive manner. This model can take as input an image of an object, 2D masks of the object's parts, or an existing 3D object, and generate a corresponding compositional 3D reconstruction. Our approach builds upon 3DShape2VecSet, a recent latent 3D representation with powerful geometric expressiveness. We observe that this latent space exhibits strong compositional properties, making it particularly well-suited for part-based generation tasks. Specifically, AutoPartGen generates object parts autoregressively, predicting one part at a time while conditioning on previously generated parts and additional inputs, such as 2D images, masks, or 3D objects. This process continues until the model decides that all parts have been generated, thus determining automatically the type and number of parts. The resulting parts can be seamlessly assembled into coherent objects or scenes without requiring additional optimization. We evaluate both the overall 3D generation capabilities and the part-level generation quality of AutoPartGen, demonstrating that it achieves state-of-the-art performance in 3D part generation.
- Abstract(参考訳): 本稿では,3次元部品からなるオブジェクトを自己回帰的に生成するモデルであるAutoPartGenを紹介する。
このモデルは、オブジェクトの画像、オブジェクトの2Dマスク、または既存の3Dオブジェクトを入力として、対応する合成3D再構成を生成することができる。
我々のアプローチは、3DShape2VecSetの上に構築されている。
この潜伏空間は強い構成特性を示しており、特にパートベース生成タスクに適している。
具体的には、AutoPartGenはオブジェクト部品を自動回帰的に生成し、以前に生成された部品と2D画像、マスク、または3Dオブジェクトなどの追加入力を条件付けしながら、一度に1つの部品を予測する。
このプロセスは、モデルがすべての部品が生成されたと判断するまで継続し、その結果、部品の種類と数を自動的に決定する。
結果として得られる部分は、追加の最適化を必要とせず、シームレスにコヒーレントなオブジェクトやシーンに組み立てることができる。
我々はAutoPartGenの全体的な3D生成能力と部分レベル生成品質を評価し、3Dパーツ生成における最先端性能を実現することを実証した。
関連論文リスト
- PartCrafter: Structured 3D Mesh Generation via Compositional Latent Diffusion Transformers [29.52313100024294]
1枚のRGB画像から複数の意味論的および幾何学的に異なる3Dメッシュを共同で合成する最初の構造化3D生成モデルであるPartCrafterを紹介する。
PartCrafterは同時に複数の3Dパーツを識別し、個々のオブジェクトと複雑な複数オブジェクトのシーンの両方をエンドツーエンドで生成する。
実験によると、PartCrafterは分解可能な3Dメッシュの生成において、既存のアプローチよりも優れています。
論文 参考訳(メタデータ) (2025-06-05T20:30:28Z) - Chirpy3D: Creative Fine-grained 3D Object Fabrication via Part Sampling [128.23917788822948]
Chirpy3Dは、ゼロショット設定で微細な3Dオブジェクトを生成するための新しいアプローチである。
モデルは、可塑性な3D構造を推測し、きめ細かい細部を捉え、新しい物体に一般化する必要がある。
我々の実験では、Cirpy3Dは、高品質できめ細かな細部を持つ創造的な3Dオブジェクトを生成する既存の手法を超越していることが示されている。
論文 参考訳(メタデータ) (2025-01-07T21:14:11Z) - PartGen: Part-level 3D Generation and Reconstruction with Multi-View Diffusion Models [63.1432721793683]
テキスト,画像,構造化されていない3Dオブジェクトから意味のある部分からなる3Dオブジェクトを生成する新しいアプローチであるPartGenを紹介する。
提案手法は, 生成された実物および実物の3次元資産に対して評価し, セグメンテーションおよび部分抽出ベースラインを大きなマージンで上回っていることを示す。
論文 参考訳(メタデータ) (2024-12-24T18:59:43Z) - 3D Part Segmentation via Geometric Aggregation of 2D Visual Features [57.20161517451834]
監督された3D部分分割モデルは、固定されたオブジェクトと部品のセットに合わせて調整されており、それらの転送可能性は、オープンセットの現実世界のシナリオに制限される。
近年、視覚言語モデル(VLM)を多視点レンダリングとテキストプロンプトを用いてオブジェクト部品の識別に活用する研究が進められている。
これらの制約に対処するために,視覚概念から抽出した意味論と3次元幾何学をブレンドし,対象部品を効果的に同定するCOPSを提案する。
論文 参考訳(メタデータ) (2024-12-05T15:27:58Z) - Part123: Part-aware 3D Reconstruction from a Single-view Image [54.589723979757515]
Part123は、一視点画像から部分認識された3D再構成のための新しいフレームワークである。
ニューラルレンダリングフレームワークにコントラスト学習を導入し、部分認識機能空間を学習する。
クラスタリングに基づくアルゴリズムも開発され、再構成されたモデルから3次元部分分割結果を自動的に導出する。
論文 参考訳(メタデータ) (2024-05-27T07:10:21Z) - AutoSweep: Recovering 3D Editable Objectsfrom a Single Photograph [54.701098964773756]
セマンティックな部分で3Dオブジェクトを復元し、直接編集することを目的としている。
我々の研究は、一般化された立方体と一般化されたシリンダーという、2種類の原始的な形状の物体を回収する試みである。
提案アルゴリズムは,高品質な3Dモデルを復元し,既存手法のインスタンスセグメンテーションと3D再構成の両方で性能を向上する。
論文 参考訳(メタデータ) (2020-05-27T12:16:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。