論文の概要: CRAG: Can 3D Generative Models Help 3D Assembly?
- arxiv url: http://arxiv.org/abs/2602.22629v1
- Date: Thu, 26 Feb 2026 05:04:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-27 18:41:22.536259
- Title: CRAG: Can 3D Generative Models Help 3D Assembly?
- Title(参考訳): CRAG: 3D生成モデルは3D組み立てに役立つか?
- Authors: Zeyu Jiang, Sihang Li, Siqi Tan, Chenyang Xu, Juexiao Zhang, Julia Galway-Witham, Xue Wang, Scott A. Williams, Radu Iovita, Chen Feng, Jing Zhang,
- Abstract要約: 組立と生成の連立問題として3次元組立を再構築する。
本稿では,可塑性完全形状を同時に生成し,入力部品のポーズを予測するCRAGを提案する。
- 参考スコア(独自算出の注目度): 17.435797014749067
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Most existing 3D assembly methods treat the problem as pure pose estimation, rearranging observed parts via rigid transformations. In contrast, human assembly naturally couples structural reasoning with holistic shape inference. Inspired by this intuition, we reformulate 3D assembly as a joint problem of assembly and generation. We show that these two processes are mutually reinforcing: assembly provides part-level structural priors for generation, while generation injects holistic shape context that resolves ambiguities in assembly. Unlike prior methods that cannot synthesize missing geometry, we propose CRAG, which simultaneously generates plausible complete shapes and predicts poses for input parts. Extensive experiments demonstrate state-of-the-art performance across in-the-wild objects with diverse geometries, varying part counts, and missing pieces. Our code and models will be released.
- Abstract(参考訳): 既存の3D組立法の多くは、問題を純粋なポーズ推定として扱い、厳密な変換を通じて観察された部分を再構成する。
対照的に、人間の集合は構造的推論と全体的形状推論を自然に結合する。
この直感に触発されて、我々は組み立てと生成の連立問題として3Dアセンブリを再構成する。
これら2つのプロセスは相互に強化され、アセンブリは生成のための部分レベルの構造的事前を提供する一方で、生成はアセンブリのあいまいさを解消する全体的形状コンテキストを注入する。
欠測幾何を合成できない従来の手法とは異なり、CRAGは可塑性完全形状を同時に生成し、入力部品のポーズを予測する。
広範囲にわたる実験では、様々なジオメトリ、異なる部分数、欠落した部分を持つ被写体における最先端のパフォーマンスが実証されている。
コードとモデルはリリースされます。
関連論文リスト
- Joint Geometry-Appearance Human Reconstruction in a Unified Latent Space via Bridge Diffusion [57.09673862519791]
本稿では,幾何学と外観のモデリングを結合潜在表現に統一する新しいフレームワークである textbfJGA-LBD を紹介する。
実験により、JGA-LBDは、幾何学的忠実度と外観品質の両方の観点から、現在の最先端アプローチよりも優れていることが示された。
論文 参考訳(メタデータ) (2026-01-01T12:48:56Z) - Assembler: Scalable 3D Part Assembly via Anchor Point Diffusion [39.08891847512135]
本稿では,3次元部品組み立てのためのスケーラブルで汎用的なフレームワークであるAssemblerを紹介する。
様々な部分数、ジオメトリ、構造を持つ、多種多様な内部オブジェクトを処理します。
PartNetで最先端のパフォーマンスを実現し、複雑な現実世界のオブジェクトに対して、初めて高品質なアセンブリをデモした。
論文 参考訳(メタデータ) (2025-06-20T15:25:20Z) - PRISM: Probabilistic Representation for Integrated Shape Modeling and Generation [79.46526296655776]
PRISMは、カテゴリー拡散モデルと統計的形状モデル(SSM)とガウス混合モデル(GMM)を統合した3次元形状生成の新しいアプローチである
本手法では,構成SSMを用いて部分レベルの幾何学的変動をキャプチャし,GMMを用いて連続空間における部分意味を表現する。
提案手法は,パートレベルの操作の品質と制御性の両方において,従来の手法よりも優れていた。
論文 参考訳(メタデータ) (2025-04-06T11:48:08Z) - Detection Based Part-level Articulated Object Reconstruction from Single RGBD Image [52.11275397911693]
本稿では,1枚のRGBD画像から複数の人工関節オブジェクトを再構成する,エンドツーエンドで訓練可能なクロスカテゴリ手法を提案する。
私たちは、あらかじめ定義された部分数で人工的なオブジェクトに焦点をあて、インスタンスレベルの潜在空間を学習することに依存する以前の作業から離れています。
提案手法は, 従来の作業では処理できない様々な構成された複数インスタンスの再構築に成功し, 形状再構成や運動学推定において, 先行の作業よりも優れていた。
論文 参考訳(メタデータ) (2025-04-04T05:08:04Z) - NeuSDFusion: A Spatial-Aware Generative Model for 3D Shape Completion, Reconstruction, and Generation [52.772319840580074]
3D形状生成は、特定の条件や制約に固執する革新的な3Dコンテンツを作成することを目的としている。
既存の方法は、しばしば3Dの形状を局所化されたコンポーネントの列に分解し、各要素を分離して扱う。
本研究では2次元平面表現を利用した空間認識型3次元形状生成フレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-27T04:09:34Z) - Leveraging SE(3) Equivariance for Learning 3D Geometric Shape Assembly [7.4109730384078025]
形状アセンブリは、部品(または断片)を完全なオブジェクトに再組み立てすることを目的としている。
部分表現の形状ポーズの歪みは幾何学的形状の組立に有用である。
本稿では,SE(3) の等式をこのような形状の非絡み合いに利用することを提案する。
論文 参考訳(メタデータ) (2023-09-13T09:00:45Z) - Discovering 3D Parts from Image Collections [98.16987919686709]
本稿では,2次元画像収集のみによる3次元部分発見の問題に対処する。
そこで我々は,手動で注釈付部品を監督する代わりに,自己監督型アプローチを提案する。
私たちのキーとなる洞察は、前もって新しい部分の形状を学習することで、各部分は、単純な幾何学を持つように制約されたまま、忠実にオブジェクトの形状に適合できるようにします。
論文 参考訳(メタデータ) (2021-07-28T20:29:16Z) - Generative 3D Part Assembly via Dynamic Graph Learning [34.108515032411695]
部品組み立ては、3Dコンピュータビジョンとロボット工学において難しいが重要な課題だ。
本稿では,反復グラフニューラルネットワークをバックボーンとして活用する,アセンブリ指向の動的グラフ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-14T04:26:42Z) - Combinatorial 3D Shape Generation via Sequential Assembly [40.2815083025929]
幾何学的プリミティブによる連続的な組み立ては、ロボット工学や3D視覚において注目を集めている。
本稿では,この結果が実現可能な膨大な組み合わせによって引き起こされることを緩和する3次元形状生成フレームワークを提案する。
実験により,本手法は3次元形状の生成に成功し,より現実的な生成過程をシミュレートすることを示した。
論文 参考訳(メタデータ) (2020-04-16T01:23:14Z) - Learning Unsupervised Hierarchical Part Decomposition of 3D Objects from
a Single RGB Image [102.44347847154867]
プリミティブの集合として3次元オブジェクトの幾何を共同で復元できる新しい定式化を提案する。
我々のモデルは、プリミティブのバイナリツリーの形で、様々なオブジェクトの高レベルな構造的分解を復元する。
ShapeNet と D-FAUST のデータセットを用いた実験により,部品の組織化を考慮すれば3次元形状の推論が容易になることが示された。
論文 参考訳(メタデータ) (2020-04-02T17:58:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。