論文の概要: General Part Assembly Planning
- arxiv url: http://arxiv.org/abs/2307.00206v1
- Date: Sat, 1 Jul 2023 03:13:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-05 17:34:36.780769
- Title: General Part Assembly Planning
- Title(参考訳): 一般会期計画
- Authors: Yulong Li, Andy Zeng, Shuran Song
- Abstract要約: General Part Assembly Transformer (GPAT)は、パートポーズを正確に予測する。
3次元CADモデルと実世界のスキャンの両方の実験はGPATの一般化能力を示している。
- 参考スコア(独自算出の注目度): 23.404292168387038
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Most successes in autonomous robotic assembly have been restricted to single
target or category. We propose to investigate general part assembly, the task
of creating novel target assemblies with unseen part shapes. To tackle the
planning of general part assembly, we present General Part Assembly Transformer
(GPAT), a transformer based model architecture that accurately predicts part
poses by inferring how each part shape corresponds to the target shape. Our
experiments on both 3D CAD models and real-world scans demonstrate GPAT's
generalization abilities to novel and diverse target and part shapes. Project
website: https://general-part-assembly.github.io/
- Abstract(参考訳): 自律的なロボット組み立ての成功のほとんどは、単一の目標またはカテゴリーに制限されている。
本稿では,未確認の部品形状を持つ新規なターゲットアセンブリ作成作業である一般部品組み立てについて検討する。
一般部品組立計画に取り組むために,各部品形状が対象形状とどのように対応しているかを推定し,部品ポーズを正確に予測する変圧器ベースモデルアーキテクチャであるgeneral part assembly transformer (gpat)を提案する。
実世界の3次元CADモデルと実世界のスキャンによる実験により,GPATの新規かつ多様なターゲットおよび部品形状への一般化能力を示す。
プロジェクトウェブサイト: https://general-part-assembly.github.io/
関連論文リスト
- Multi-level Reasoning for Robotic Assembly: From Sequence Inference to
Contact Selection [74.40109927350856]
本稿では,PAST(Part Assembly Sequence Transformer)を用いて,対象とするブループリントからアセンブリシーケンスを推論する。
次に、モーションプランナーと最適化を使用して、部品の動きと接触を生成する。
実験結果から,本手法は従来手法よりも一般化されていることがわかった。
論文 参考訳(メタデータ) (2023-12-17T00:47:13Z) - SAGE: Bridging Semantic and Actionable Parts for GEneralizable Manipulation of Articulated Objects [9.500480417077272]
本稿では,自然言語命令下での汎用的な操作を実現するために,意味的および動作可能なオブジェクトをブリッジする新しいフレームワークを提案する。
パーシャルグラウンドモジュールは、セマンティックな部分を「ジェネリザブル・アクティブル・パート(GAParts)」と表現し、パートモーションに関する情報を本質的に保持する。
インタラクティブなフィードバックモジュールが障害に対応するために組み込まれており、ループを閉じ、全体的なフレームワークの堅牢性を高める。
論文 参考訳(メタデータ) (2023-12-03T07:22:42Z) - Part-aware Prototypical Graph Network for One-shot Skeleton-based Action
Recognition [57.86960990337986]
ワンショットスケルトンに基づくアクション認識は、ベースクラスから新しいクラスへの変換可能な表現を学習する上で、ユニークな課題となる。
単発骨格に基づく行動認識のためのパートアウェアなプロトタイプ表現を提案する。
本手法の有効性を2つの公開骨格に基づく行動認識データセットに示す。
論文 参考訳(メタデータ) (2022-08-19T04:54:56Z) - 3D Part Assembly Generation with Instance Encoded Transformer [22.330218525999857]
本稿では,部品間の幾何的および関係的な推論を伴い,部品の更新を反復的に行う多層トランスフォーマーベースのフレームワークを提案する。
フレームワークをプロセス内部分アセンブリと呼ばれる新しいタスクに拡張します。
提案手法は、パブリックなPartNetデータセット上の複数のメトリクスにおいて、現在の最先端よりも10%以上改善されている。
論文 参考訳(メタデータ) (2022-07-05T02:40:57Z) - AutoGPart: Intermediate Supervision Search for Generalizable 3D Part
Segmentation [58.78094823473567]
AutoGPartは、幾何学的な事前知識を符号化した監視空間を構築し、マシンが特定のセグメンテーションタスクの最適な監督を自動で検索できるようにする。
本稿では,単純なバックボーンを用いたセグメンテーションネットワークの性能を,本手法で探索した教師によるトレーニングにより向上できることを実証する。
論文 参考訳(メタデータ) (2022-03-13T03:45:58Z) - 3D Compositional Zero-shot Learning with DeCompositional Consensus [102.7571947144639]
我々は、部分的知識は観察されたオブジェクトクラスを超えて構成可能であるべきだと論じる。
本稿では、視覚から見えないオブジェクトクラスへの部分一般化の問題として、3D合成ゼロショット学習を提案する。
論文 参考訳(メタデータ) (2021-11-29T16:34:53Z) - Unsupervised Pose-Aware Part Decomposition for 3D Articulated Objects [68.73163598790255]
本研究では,機械的関節を有する人工関節オブジェクトを対象とする新しい環境に対処するため,PD(unsupervised Pose-aware Part Decomposition)を提案する。
本研究は,(1)非原始的な暗黙的表現による部分分解の教師なし学習を促進させ,(2)単一フレーム形状の監督下での協調パラメータとして機能することを示す。
論文 参考訳(メタデータ) (2021-10-08T23:53:56Z) - Generative 3D Part Assembly via Dynamic Graph Learning [34.108515032411695]
部品組み立ては、3Dコンピュータビジョンとロボット工学において難しいが重要な課題だ。
本稿では,反復グラフニューラルネットワークをバックボーンとして活用する,アセンブリ指向の動的グラフ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-14T04:26:42Z) - Learning 3D Part Assembly from a Single Image [20.175502864488493]
そこで本研究では,新たな問題として,学習ベースのソリューションとともに,シングルイメージの3Dパーツアセンブリを導入する。
本報告では, 家具組立において, 部品の完全な集合と, 組み立て物全体を描いた一枚の画像から, 家具組立の設定について検討する。
論文 参考訳(メタデータ) (2020-03-21T21:19:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。