論文の概要: Multi-level Reasoning for Robotic Assembly: From Sequence Inference to
Contact Selection
- arxiv url: http://arxiv.org/abs/2312.10571v1
- Date: Sun, 17 Dec 2023 00:47:13 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-19 15:41:17.475058
- Title: Multi-level Reasoning for Robotic Assembly: From Sequence Inference to
Contact Selection
- Title(参考訳): ロボット組立のためのマルチレベル推論:シーケンス推論から接触選択まで
- Authors: Xinghao Zhu, Devesh K. Jha, Diego Romeres, Lingfeng Sun, Masayoshi
Tomizuka, Anoop Cherian
- Abstract要約: 本稿では,PAST(Part Assembly Sequence Transformer)を用いて,対象とするブループリントからアセンブリシーケンスを推論する。
次に、モーションプランナーと最適化を使用して、部品の動きと接触を生成する。
実験結果から,本手法は従来手法よりも一般化されていることがわかった。
- 参考スコア(独自算出の注目度): 74.40109927350856
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Automating the assembly of objects from their parts is a complex problem with
innumerable applications in manufacturing, maintenance, and recycling. Unlike
existing research, which is limited to target segmentation, pose regression, or
using fixed target blueprints, our work presents a holistic multi-level
framework for part assembly planning consisting of part assembly sequence
inference, part motion planning, and robot contact optimization. We present the
Part Assembly Sequence Transformer (PAST) -- a sequence-to-sequence neural
network -- to infer assembly sequences recursively from a target blueprint. We
then use a motion planner and optimization to generate part movements and
contacts. To train PAST, we introduce D4PAS: a large-scale Dataset for Part
Assembly Sequences (D4PAS) consisting of physically valid sequences for
industrial objects. Experimental results show that our approach generalizes
better than prior methods while needing significantly less computational time
for inference.
- Abstract(参考訳): 部品からオブジェクトの組み立てを自動化することは、製造、保守、リサイクルにおける無数の応用において複雑な問題である。
対象のセグメンテーション,ポーズレグレッション,あるいは固定対象の青写真の使用に限定した既存研究とは異なり,本研究は,部品組立シーケンス推論,部品動作計画,ロボット接触最適化からなる部品組立計画のための総合的多段階フレームワークを提案する。
対象の青写真から再帰的にアセンブリシーケンスを推測するために、part assembly sequence transformer (past) -- sequence-to-sequence neural network -- を提案する。
次に、モーションプランナーと最適化を使用して、部品の動きと接触を生成する。
PASTのトレーニングにはD4PAS(D4PAS: Large-scale Dataset for Part Assembly Sequences, D4PAS)を導入する。
実験の結果,提案手法は従来の手法よりも一般化し,計算時間を大幅に削減できることがわかった。
関連論文リスト
- SAM-E: Leveraging Visual Foundation Model with Sequence Imitation for Embodied Manipulation [62.58480650443393]
Segment Anything (SAM) は、一般化可能なシーン理解とシーケンス模倣のための視覚境界モデルである。
我々は,単一パスにおけるアクションシーケンスの予測を可能にする,新しいマルチチャネルヒートマップを開発した。
論文 参考訳(メタデータ) (2024-05-30T00:32:51Z) - SPAFormer: Sequential 3D Part Assembly with Transformers [52.980803808373516]
SPAFormerは,3次元部品組み立て作業における爆発的課題を克服する革新的なモデルである。
アセンブリシーケンスからの制約を活用することでこの問題に対処し、ソリューション空間の複雑さを効果的に軽減する。
さらに、部品の属性とそのシーケンス情報を利用する知識強化戦略を通じて組み立てを強化する。
論文 参考訳(メタデータ) (2024-03-09T10:53:11Z) - ASAP: Automated Sequence Planning for Complex Robotic Assembly with
Physical Feasibility [27.424678100675163]
本稿では,一般型アセンブリのシーケンスを自動生成する物理ベースの計画手法であるASAPを提案する。
サーチは、シミュレーションラベルでデータに基づいてトレーニングされた幾何学的またはグラフニューラルネットワークによってガイドすることができる。
数百の複雑な製品集合体からなる大規模データセット上で, 物理的に現実的な組み立て計画を生成する上で, ASAPの優れた性能を示す。
論文 参考訳(メタデータ) (2023-09-29T00:27:40Z) - ZJU ReLER Submission for EPIC-KITCHEN Challenge 2023: Semi-Supervised
Video Object Segmentation [62.98078087018469]
マルチ機能スケールでトランスフォーマーを組み込んだAOTフレームワークの派生版であるMSDeAOTを紹介する。
MSDeAOTは16のストライドを持つ特徴尺度を用いて、以前のフレームから現在のフレームへ効率的にオブジェクトマスクを伝搬する。
また,GPMを8ストライドで改良した機能スケールで採用することで,小型物体の検出・追跡の精度が向上した。
論文 参考訳(メタデータ) (2023-07-05T03:43:15Z) - RegFormer: An Efficient Projection-Aware Transformer Network for
Large-Scale Point Cloud Registration [73.69415797389195]
本稿では,大規模クラウドアライメントのためのエンドツーエンドトランス (RegFormer) ネットワークを提案する。
具体的には、プロジェクション対応階層変換器を提案し、長距離依存を捕捉し、外乱をフィルタする。
我々の変圧器は線形複雑であり、大規模シーンでも高い効率が保証される。
論文 参考訳(メタデータ) (2023-03-22T08:47:37Z) - Efficient and Feasible Robotic Assembly Sequence Planning via Graph
Representation Learning [22.447462847331312]
本稿では,製品集合体に対するアセンブリグラフと呼ばれるグラフ表現を含む総合的なグラフィカルアプローチを提案する。
GRACEでは、グラフ入力から意味のある情報を抽出し、ステップバイステップでアセンブリシーケンスを予測する。
実験では,アルミニウムプロファイルの積変種にまたがって,本手法が実現可能なアセンブリシーケンスを予測可能であることを示す。
論文 参考訳(メタデータ) (2023-03-17T17:23:14Z) - 3D Part Assembly Generation with Instance Encoded Transformer [22.330218525999857]
本稿では,部品間の幾何的および関係的な推論を伴い,部品の更新を反復的に行う多層トランスフォーマーベースのフレームワークを提案する。
フレームワークをプロセス内部分アセンブリと呼ばれる新しいタスクに拡張します。
提案手法は、パブリックなPartNetデータセット上の複数のメトリクスにおいて、現在の最先端よりも10%以上改善されている。
論文 参考訳(メタデータ) (2022-07-05T02:40:57Z) - Efficient and Robust Training of Dense Object Nets for Multi-Object
Robot Manipulation [8.321536457963655]
我々はDense Object Nets(DON)の堅牢で効率的なトレーニングのためのフレームワークを提案する。
本研究は,多目的データを用いた学習に重点を置いている。
実世界のロボットによる把握作業において,提案手法の頑健さと精度を実証する。
論文 参考訳(メタデータ) (2022-06-24T08:24:42Z) - Graph-based Reinforcement Learning meets Mixed Integer Programs: An
application to 3D robot assembly discovery [34.25379651790627]
我々は、テトリスのような構造ブロックとロボットマニピュレータを用いて、スクラッチから完全に定義済みの任意のターゲット構造を構築するという課題に対処する。
我々の新しい階層的アプローチは、タスク全体を相互に利益をもたらす3つの実行可能なレベルに効率的に分解することを目的としています。
論文 参考訳(メタデータ) (2022-03-08T14:44:51Z) - Prototypical Cross-Attention Networks for Multiple Object Tracking and
Segmentation [95.74244714914052]
複数のオブジェクトのトラッキングとセグメンテーションには、与えられたクラスのセットに属するオブジェクトを検出し、追跡し、セグメンテーションする必要がある。
オンライン上でリッチ・テンポラル情報を活用するプロトタイプ・クロス・アテンション・ネットワーク(PCAN)を提案する。
PCANは、Youtube-VISとBDD100Kデータセットで、現在のビデオインスタンス追跡とセグメンテーションコンテストの勝者を上回っている。
論文 参考訳(メタデータ) (2021-06-22T17:57:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。