論文の概要: JENGA: Object selection and pose estimation for robotic grasping from a stack
- arxiv url: http://arxiv.org/abs/2506.13425v1
- Date: Mon, 16 Jun 2025 12:43:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-17 17:28:48.398077
- Title: JENGA: Object selection and pose estimation for robotic grasping from a stack
- Title(参考訳): JENGA: スタックからのロボットグルーピングのためのオブジェクト選択とポーズ推定
- Authors: Sai Srinivas Jeevanandam, Sandeep Inuganti, Shreedhar Govil, Didier Stricker, Jason Rambach,
- Abstract要約: 我々は,これらのオブジェクトの正確な6DoFポーズを推定し,把握に適したオブジェクトを選択する問題を定義する。
この問題に対処するため,カメラIMUベースのアプローチを提案し,スタックの上位層に非障害物オブジェクトを優先順位付けする。
本手法は, 施工シナリオにおいて, ブリック・ピッキング・アプリケーションとして, 提案手法の展開結果を示す。
- 参考スコア(独自算出の注目度): 9.867796212936337
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Vision-based robotic object grasping is typically investigated in the context of isolated objects or unstructured object sets in bin picking scenarios. However, there are several settings, such as construction or warehouse automation, where a robot needs to interact with a structured object formation such as a stack. In this context, we define the problem of selecting suitable objects for grasping along with estimating an accurate 6DoF pose of these objects. To address this problem, we propose a camera-IMU based approach that prioritizes unobstructed objects on the higher layers of stacks and introduce a dataset for benchmarking and evaluation, along with a suitable evaluation metric that combines object selection with pose accuracy. Experimental results show that although our method can perform quite well, this is a challenging problem if a completely error-free solution is needed. Finally, we show results from the deployment of our method for a brick-picking application in a construction scenario.
- Abstract(参考訳): 視覚に基づくロボットオブジェクトの把握は、通常、孤立したオブジェクトや、ビンピッキングシナリオにおける非構造化オブジェクトセットの文脈で研究される。
しかし、建設や倉庫の自動化など、いくつかの設定があり、そこでは、ロボットがスタックのような構造化されたオブジェクトと対話する必要がある。
この文脈では、これらのオブジェクトの正確な6DoFのポーズを推定しながら、把握に適したオブジェクトを選択するという問題を定義します。
この問題に対処するために,スタックの上位層に非障害物オブジェクトを優先順位付けするカメラIMUベースのアプローチを提案するとともに,オブジェクト選択とポーズ精度を組み合わせた適切な評価指標とともに,ベンチマークと評価のためのデータセットを導入する。
実験結果から,本手法は極めて良好に動作可能であるが,完全にエラーのない解を必要とする場合,これは難しい問題であることがわかった。
最後に,本手法を構築シナリオに組み込むことにより,本手法の有効性を示す。
関連論文リスト
- Category-Level and Open-Set Object Pose Estimation for Robotics [7.9471205712560264]
本稿では,カテゴリレベルでの6次元ポーズ推定におけるデータセット,精度指標,アルゴリズムを比較した。
カテゴリレベルのオブジェクトとオープンセットオブジェクトのポーズ推定をブリッジして一般化に到達し、実行可能なレコメンデーションを提供する方法について分析する。
論文 参考訳(メタデータ) (2025-04-28T08:31:33Z) - Grasping Partially Occluded Objects Using Autoencoder-Based Point Cloud Inpainting [50.4653584592824]
実世界のアプリケーションには、シミュレーションや実験室の設定でテストされたソリューションを把握できないような課題が伴うことが多い。
本稿では,欠落した情報を再構成するアルゴリズムを提案する。
本手法は,ロバストなオブジェクトマッチング手法を現実に活用し,点計算の把握に役立てる。
論文 参考訳(メタデータ) (2025-03-16T15:38:08Z) - ICGNet: A Unified Approach for Instance-Centric Grasping [42.92991092305974]
オブジェクト中心の把握のためのエンドツーエンドアーキテクチャを導入する。
提案手法の有効性を,合成データセット上での最先端手法に対して広範囲に評価することにより示す。
論文 参考訳(メタデータ) (2024-01-18T12:41:41Z) - Learning Extrinsic Dexterity with Parameterized Manipulation Primitives [8.7221770019454]
我々は、オブジェクトのポーズを変えるために環境を利用する一連のアクションを学習する。
我々のアプローチは、オブジェクトとグリップと環境の間の相互作用を利用してオブジェクトの状態を制御することができる。
拘束されたテーブルトップワークスペースから様々な重量,形状,摩擦特性の箱状物体を選別する手法の評価を行った。
論文 参考訳(メタデータ) (2023-10-26T21:28:23Z) - You Only Look at One: Category-Level Object Representations for Pose
Estimation From a Single Example [26.866356430469757]
所望のカテゴリから1つのオブジェクトだけを検査してカテゴリレベルのポーズ推定を行う手法を提案する。
本稿では,RGBDセンサを搭載したロボットマニピュレータを用いて,新しい物体のオンライン6次元ポーズ推定を行う。
論文 参考訳(メタデータ) (2023-05-22T01:32:24Z) - ShapeShift: Superquadric-based Object Pose Estimation for Robotic
Grasping [85.38689479346276]
現在の技術は参照3Dオブジェクトに大きく依存しており、その一般化性を制限し、新しいオブジェクトカテゴリに拡張するのにコストがかかる。
本稿では,オブジェクトに適合するプリミティブな形状に対してオブジェクトのポーズを予測する,オブジェクトのポーズ推定のためのスーパークワッドリックベースのフレームワークであるShapeShiftを提案する。
論文 参考訳(メタデータ) (2023-04-10T20:55:41Z) - LocPoseNet: Robust Location Prior for Unseen Object Pose Estimation [69.70498875887611]
LocPoseNetは、見えないオブジェクトに先立って、ロバストにロケーションを学習することができる。
提案手法は,LINEMOD と GenMOP において,既存の作業よりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-11-29T15:21:34Z) - Slender Object Detection: Diagnoses and Improvements [74.40792217534]
本稿では,超高アスペクト比,すなわちtextbfslender オブジェクトの特定タイプの検出について検討する。
古典的物体検出法では、細い物体に対してのみ評価される場合、COCO上の18.9%のmAPの劇的な低下が観察される。
論文 参考訳(メタデータ) (2020-11-17T09:39:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。