論文の概要: SPAFormer: Sequential 3D Part Assembly with Transformers
- arxiv url: http://arxiv.org/abs/2403.05874v2
- Date: Mon, 3 Jun 2024 07:37:23 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-04 16:08:41.847314
- Title: SPAFormer: Sequential 3D Part Assembly with Transformers
- Title(参考訳): SPAFormer: トランスフォーマーを備えた逐次3Dパーツアセンブリ
- Authors: Boshen Xu, Sipeng Zheng, Qin Jin,
- Abstract要約: SPAFormerは,3次元部品組み立て作業における爆発的課題を克服する革新的なモデルである。
アセンブリシーケンスからの制約を活用することでこの問題に対処し、ソリューション空間の複雑さを効果的に軽減する。
さらに、部品の属性とそのシーケンス情報を利用する知識強化戦略を通じて組み立てを強化する。
- 参考スコア(独自算出の注目度): 52.980803808373516
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce SPAFormer, an innovative model designed to overcome the combinatorial explosion challenge in the 3D Part Assembly (3D-PA) task. This task requires accurate prediction of each part's pose and shape in sequential steps, and as the number of parts increases, the possible assembly combinations increase exponentially, leading to a combinatorial explosion that severely hinders the efficacy of 3D-PA. SPAFormer addresses this problem by leveraging weak constraints from assembly sequences, effectively reducing the solution space's complexity. Since assembly part sequences convey construction rules similar to sentences being structured through words, our model explores both parallel and autoregressive generation. It further enhances assembly through knowledge enhancement strategies that utilize the attributes of parts and their sequence information, enabling it to capture the inherent assembly pattern and relationships among sequentially ordered parts. We also construct a more challenging benchmark named PartNet-Assembly covering 21 varied categories to more comprehensively validate the effectiveness of SPAFormer. Extensive experiments demonstrate the superior generalization capabilities of SPAFormer, particularly with multi-tasking and in scenarios requiring long-horizon assembly. Codes and model weights will be released at https://github.com/xuboshen/SPAFormer.
- Abstract(参考訳): SPAFormerは,3Dパートアセンブリ(3D-PA)タスクにおける組合せ的爆発的課題を克服するために設計された,革新的なモデルである。
このタスクは、各部品のポーズと形状を逐次的に正確に予測することを必要とし、部品の数が増えるにつれて、可能な組み立ての組み合わせは指数関数的に増加し、3D-PAの有効性を著しく阻害する組合せ爆発を引き起こす。
SPAFormerは、アセンブリシーケンスからの弱い制約を活用することでこの問題に対処し、ソリューション空間の複雑さを効果的に低減する。
組立部分列は、単語によって構成されている文に似た構成規則を伝達するため、並列生成と自己回帰生成の両方を探索する。
さらに、部品の属性とそのシーケンス情報を利用する知識強化戦略を通じてアセンブリを強化し、固有のアセンブリパターンと順序順に順序付けられた部品間の関係をキャプチャする。
また、SPAFormerの有効性をより包括的に検証するために、21種類のカテゴリをカバーするPartNet-Assemblyというより困難なベンチマークを構築した。
大規模な実験では、SPAFormerの優れた一般化能力、特にマルチタスクや長期水平組立を必要とするシナリオが示される。
コードとモデルの重み付けはhttps://github.com/xuboshen/SPAFormer.comで公開される。
関連論文リスト
- Jigsaw++: Imagining Complete Shape Priors for Object Reassembly [35.16793557538698]
Jigsaw++は、再アセンブリ問題に対する再構築の多面的課題に取り組むために設計された、新しい生成方法である。
完全なオブジェクトの前にカテゴリに依存しない形状を学ぶことで、自分自身を区別する。
J Jigsaw++は、その効果を示し、再構築エラーを低減し、形状復元の精度を高める。
論文 参考訳(メタデータ) (2024-10-15T17:45:37Z) - TreeSBA: Tree-Transformer for Self-Supervised Sequential Brick Assembly [51.29305265324916]
入力された多視点画像から連続的な組立動作を予測するために,クラスに依存しないツリー・トランスフォーマフレームワークを提案する。
逐次レンガ組立作業の大きな課題は、ステップワイドアクションラベルが実際に入手するのに費用がかかり、面倒であることである。
我々は、合成から現実への移行学習を活用することにより、この問題を緩和する。
論文 参考訳(メタデータ) (2024-07-22T14:05:27Z) - Sparser is Faster and Less is More: Efficient Sparse Attention for Long-Range Transformers [58.5711048151424]
SPARSEK Attention(SPARSEK Attention)は、計算およびメモリ障害を克服するために設計された、新しいスパースアテンション機構である。
提案手法では,各クエリに対して一定数のKVペアを選択するために,スコアリングネットワークと差別化可能なトップkマスク演算子であるSPARSEKを統合する。
実験結果から,SPARSEK注意は従来のスパースアテンション法よりも優れていた。
論文 参考訳(メタデータ) (2024-06-24T15:55:59Z) - Unlocking the Secrets of Linear Complexity Sequence Model from A Unified Perspective [26.479602180023125]
LCSM(Linear Complexity Sequence Model)は、線形複雑性を伴う様々なシーケンスモデリング手法を単位とする。
これらのモデルのモデリングプロセスは、拡張、Oscillation、Shrinkの3つの異なるステージに区分する。
異なるステージ設定が言語モデリングおよび検索タスクに与える影響を分析する実験を行う。
論文 参考訳(メタデータ) (2024-05-27T17:38:55Z) - Multi-level Reasoning for Robotic Assembly: From Sequence Inference to
Contact Selection [74.40109927350856]
本稿では,PAST(Part Assembly Sequence Transformer)を用いて,対象とするブループリントからアセンブリシーケンスを推論する。
次に、モーションプランナーと最適化を使用して、部品の動きと接触を生成する。
実験結果から,本手法は従来手法よりも一般化されていることがわかった。
論文 参考訳(メタデータ) (2023-12-17T00:47:13Z) - Language-free Compositional Action Generation via Decoupling Refinement [67.50452446686725]
本稿では,言語補助に頼らずに作曲行動を生成する新しい枠組みを提案する。
このアプローチは,アクション結合,条件付きアクション生成,デカップリングリファインメントという3つの主要コンポーネントから構成される。
論文 参考訳(メタデータ) (2023-07-07T12:00:38Z) - Learning Versatile 3D Shape Generation with Improved AR Models [91.87115744375052]
自己回帰(AR)モデルはグリッド空間の関節分布をモデル化することにより2次元画像生成において印象的な結果を得た。
本稿では3次元形状生成のための改良された自己回帰モデル(ImAM)を提案する。
論文 参考訳(メタデータ) (2023-03-26T12:03:18Z) - Combinatorial 3D Shape Generation via Sequential Assembly [40.2815083025929]
幾何学的プリミティブによる連続的な組み立ては、ロボット工学や3D視覚において注目を集めている。
本稿では,この結果が実現可能な膨大な組み合わせによって引き起こされることを緩和する3次元形状生成フレームワークを提案する。
実験により,本手法は3次元形状の生成に成功し,より現実的な生成過程をシミュレートすることを示した。
論文 参考訳(メタデータ) (2020-04-16T01:23:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。