論文の概要: Assembler: Scalable 3D Part Assembly via Anchor Point Diffusion
- arxiv url: http://arxiv.org/abs/2506.17074v1
- Date: Fri, 20 Jun 2025 15:25:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-23 19:00:05.508829
- Title: Assembler: Scalable 3D Part Assembly via Anchor Point Diffusion
- Title(参考訳): Assembler: Anchor Point Diffusionによるスケーラブルな3Dパーツアセンブリ
- Authors: Wang Zhao, Yan-Pei Cao, Jiale Xu, Yuejiang Dong, Ying Shan,
- Abstract要約: 本稿では,3次元部品組み立てのためのスケーラブルで汎用的なフレームワークであるAssemblerを紹介する。
様々な部分数、ジオメトリ、構造を持つ、多種多様な内部オブジェクトを処理します。
PartNetで最先端のパフォーマンスを実現し、複雑な現実世界のオブジェクトに対して、初めて高品質なアセンブリをデモした。
- 参考スコア(独自算出の注目度): 39.08891847512135
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present Assembler, a scalable and generalizable framework for 3D part assembly that reconstructs complete objects from input part meshes and a reference image. Unlike prior approaches that mostly rely on deterministic part pose prediction and category-specific training, Assembler is designed to handle diverse, in-the-wild objects with varying part counts, geometries, and structures. It addresses the core challenges of scaling to general 3D part assembly through innovations in task formulation, representation, and data. First, Assembler casts part assembly as a generative problem and employs diffusion models to sample plausible configurations, effectively capturing ambiguities arising from symmetry, repeated parts, and multiple valid assemblies. Second, we introduce a novel shape-centric representation based on sparse anchor point clouds, enabling scalable generation in Euclidean space rather than SE(3) pose prediction. Third, we construct a large-scale dataset of over 320K diverse part-object assemblies using a synthesis and filtering pipeline built on existing 3D shape repositories. Assembler achieves state-of-the-art performance on PartNet and is the first to demonstrate high-quality assembly for complex, real-world objects. Based on Assembler, we further introduce an interesting part-aware 3D modeling system that generates high-resolution, editable objects from images, demonstrating potential for interactive and compositional design. Project page: https://assembler3d.github.io
- Abstract(参考訳): 入力部分メッシュと参照画像から完全なオブジェクトを再構成する,スケーラブルで汎用的な3D部品アセンブリフレームワークであるAssemblerを提案する。
決定論的部分の予測とカテゴリー固有の訓練に大きく依存する従来のアプローチとは異なり、Assemblerは様々な部分数、ジオメトリ、構造を持つ多種多様な対象を扱うように設計されている。
タスクの定式化、表現、データの革新を通じて、一般的な3D部品の組み立てにスケールアップする上での課題に対処する。
第一に、アセンブラは部分集合を生成問題としてキャストし、拡散モデルを用いて可塑性構成をサンプリングし、対称性、繰り返し部分、複数の有効なアセンブリから生じる曖昧さを効果的に捉える。
第二に、スパースアンカー点雲に基づく新しい形状中心の表現を導入し、SE(3)ポーズの予測よりもユークリッド空間でのスケーラブルな生成を可能にする。
第3に,既存の3次元形状リポジトリ上に構築された合成・フィルタリングパイプラインを用いて,320万以上の多様な部分オブジェクト集合からなる大規模データセットを構築した。
AssemblerはPartNetで最先端のパフォーマンスを実現し、複雑な現実世界のオブジェクトに対して、初めて高品質なアセンブリをデモした。
Assemblerをベースとして、画像から高解像度で編集可能なオブジェクトを生成し、インタラクティブで構成的なデザインの可能性を示す、興味深い部分認識3Dモデリングシステムを導入する。
プロジェクトページ: https://assembler3d.github.io
関連論文リスト
- PartCrafter: Structured 3D Mesh Generation via Compositional Latent Diffusion Transformers [29.52313100024294]
1枚のRGB画像から複数の意味論的および幾何学的に異なる3Dメッシュを共同で合成する最初の構造化3D生成モデルであるPartCrafterを紹介する。
PartCrafterは同時に複数の3Dパーツを識別し、個々のオブジェクトと複雑な複数オブジェクトのシーンの両方をエンドツーエンドで生成する。
実験によると、PartCrafterは分解可能な3Dメッシュの生成において、既存のアプローチよりも優れています。
論文 参考訳(メタデータ) (2025-06-05T20:30:28Z) - PartGen: Part-level 3D Generation and Reconstruction with Multi-View Diffusion Models [63.1432721793683]
テキスト,画像,構造化されていない3Dオブジェクトから意味のある部分からなる3Dオブジェクトを生成する新しいアプローチであるPartGenを紹介する。
提案手法は, 生成された実物および実物の3次元資産に対して評価し, セグメンテーションおよび部分抽出ベースラインを大きなマージンで上回っていることを示す。
論文 参考訳(メタデータ) (2024-12-24T18:59:43Z) - 3D Part Segmentation via Geometric Aggregation of 2D Visual Features [57.20161517451834]
監督された3D部分分割モデルは、固定されたオブジェクトと部品のセットに合わせて調整されており、それらの転送可能性は、オープンセットの現実世界のシナリオに制限される。
近年、視覚言語モデル(VLM)を多視点レンダリングとテキストプロンプトを用いてオブジェクト部品の識別に活用する研究が進められている。
これらの制約に対処するために,視覚概念から抽出した意味論と3次元幾何学をブレンドし,対象部品を効果的に同定するCOPSを提案する。
論文 参考訳(メタデータ) (2024-12-05T15:27:58Z) - Part123: Part-aware 3D Reconstruction from a Single-view Image [54.589723979757515]
Part123は、一視点画像から部分認識された3D再構成のための新しいフレームワークである。
ニューラルレンダリングフレームワークにコントラスト学習を導入し、部分認識機能空間を学習する。
クラスタリングに基づくアルゴリズムも開発され、再構成されたモデルから3次元部分分割結果を自動的に導出する。
論文 参考訳(メタデータ) (2024-05-27T07:10:21Z) - Generative 3D Part Assembly via Dynamic Graph Learning [34.108515032411695]
部品組み立ては、3Dコンピュータビジョンとロボット工学において難しいが重要な課題だ。
本稿では,反復グラフニューラルネットワークをバックボーンとして活用する,アセンブリ指向の動的グラフ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-14T04:26:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。