論文の概要: Simultaneous Semantic and Collision Learning for 6-DoF Grasp Pose
Estimation
- arxiv url: http://arxiv.org/abs/2108.02425v1
- Date: Thu, 5 Aug 2021 07:46:48 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-06 21:32:45.366194
- Title: Simultaneous Semantic and Collision Learning for 6-DoF Grasp Pose
Estimation
- Title(参考訳): 6-DoF Grasp Pose 推定のための同時意味・衝突学習
- Authors: Yiming Li, Tao Kong, Ruihang Chu, Yifeng Li, Peng Wang and Lei Li
- Abstract要約: 我々は,同時マルチタスク学習問題として6-DoFグリップポーズ推定を定式化する。
統合されたフレームワークでは、実現可能な6-DoFグリップポーズ、インスタンスセマンティックセグメンテーション、衝突情報を共同で予測する。
本モデルは,大規模ベンチマークと実ロボットシステムを用いて評価する。
- 参考スコア(独自算出の注目度): 20.11811614166135
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Grasping in cluttered scenes has always been a great challenge for robots,
due to the requirement of the ability to well understand the scene and object
information. Previous works usually assume that the geometry information of the
objects is available, or utilize a step-wise, multi-stage strategy to predict
the feasible 6-DoF grasp poses. In this work, we propose to formalize the 6-DoF
grasp pose estimation as a simultaneous multi-task learning problem. In a
unified framework, we jointly predict the feasible 6-DoF grasp poses, instance
semantic segmentation, and collision information. The whole framework is
jointly optimized and end-to-end differentiable. Our model is evaluated on
large-scale benchmarks as well as the real robot system. On the public dataset,
our method outperforms prior state-of-the-art methods by a large margin (+4.08
AP). We also demonstrate the implementation of our model on a real robotic
platform and show that the robot can accurately grasp target objects in
cluttered scenarios with a high success rate. Project link:
https://openbyterobotics.github.io/sscl
- Abstract(参考訳): 乱雑なシーンを掴むことは、シーンや対象の情報を理解する能力が必要となるため、ロボットにとって常に大きな課題だった。
以前の作品では、通常、物体の幾何学的情報は利用可能であると仮定し、あるいはステップワイズ多段階戦略を用いて、実現可能な6自由度姿勢を予測できると仮定している。
本研究では,同時マルチタスク学習問題として6-DoFグリップポーズ推定法を提案する。
統一された枠組みでは,6自由度把握ポーズ,インスタンス意味セグメンテーション,衝突情報などを同時に予測する。
フレームワーク全体が共同最適化され、エンドツーエンドの差別化が可能である。
本モデルは,大規模ベンチマークと実ロボットシステムを用いて評価する。
公開データセットでは,従来の最先端手法よりも大きなマージン(+4.08 AP)で優れていた。
また,実際のロボットプラットフォーム上でのモデルの実装を実演し,ロボットが乱雑なシナリオにおける対象物を高い成功率で正確に把握できることを示した。
プロジェクトリンク: https://openbyterobotics.github.io/sscl
関連論文リスト
- ICGNet: A Unified Approach for Instance-Centric Grasping [42.92991092305974]
オブジェクト中心の把握のためのエンドツーエンドアーキテクチャを導入する。
提案手法の有効性を,合成データセット上での最先端手法に対して広範囲に評価することにより示す。
論文 参考訳(メタデータ) (2024-01-18T12:41:41Z) - Learning to Estimate 6DoF Pose from Limited Data: A Few-Shot,
Generalizable Approach using RGB Images [60.0898989456276]
本稿では,数ショットの6DoFポーズ推定のためのCas6Dという新しいフレームワークを提案する。
極めて少数の設定で対象物検出の偽陽性に対処するために,本フレームワークでは,自己教師付き事前学習型ViTを用いて,ロバストな特徴表現を学習する。
LINEMODとGenMOPデータセットの実験結果は、Cas6Dが32ショット設定で最先端の手法を9.2%、精度3.8%(Proj-5)で上回ることを示した。
論文 参考訳(メタデータ) (2023-06-13T07:45:42Z) - Context-aware 6D Pose Estimation of Known Objects using RGB-D data [3.48122098223937]
6Dオブジェクトのポーズ推定は、コンピュータビジョンとロボット工学の分野で研究トピックとなっている。
私たちは、以前の作業とは異なり、コンテキストアウェアなアーキテクチャを提示します。
実験の結果,LineMODデータセットの精度は約3.2%向上した。
論文 参考訳(メタデータ) (2022-12-11T18:01:01Z) - Unseen Object 6D Pose Estimation: A Benchmark and Baselines [62.8809734237213]
本稿では,新しい物体の6次元ポーズ推定をアルゴリズムで行えるようにするための新しいタスクを提案する。
実画像と合成画像の両方でデータセットを収集し、テストセットで最大48個の未確認オブジェクトを収集する。
エンド・ツー・エンドの3D対応ネットワークをトレーニングすることにより、未確認物体と部分ビューRGBD画像との対応点を高精度かつ効率的に見つけることができる。
論文 参考訳(メタデータ) (2022-06-23T16:29:53Z) - MetaGraspNet: A Large-Scale Benchmark Dataset for Vision-driven Robotic
Grasping via Physics-based Metaverse Synthesis [78.26022688167133]
本稿では,物理に基づくメタバース合成による視覚駆動型ロボットグルーピングのための大規模ベンチマークデータセットを提案する。
提案するデータセットには,10万の画像と25種類のオブジェクトが含まれている。
また,オブジェクト検出とセグメンテーション性能を評価するためのデータセットとともに,新しいレイアウト重み付け性能指標を提案する。
論文 参考訳(メタデータ) (2021-12-29T17:23:24Z) - DemoGrasp: Few-Shot Learning for Robotic Grasping with Human
Demonstration [42.19014385637538]
本稿では,ロボットに対して,単純で短い人間の実演で物体をつかむ方法を教えることを提案する。
まず、人間と物体の相互作用を示すRGB-D画像の小さなシーケンスを提示する。
このシーケンスを使用して、インタラクションを表す手とオブジェクトメッシュを構築する。
論文 参考訳(メタデータ) (2021-12-06T08:17:12Z) - Learning Models as Functionals of Signed-Distance Fields for
Manipulation Planning [51.74463056899926]
本研究では,シーン内のオブジェクトを表す符号付き距離場の目的を学習する,最適化に基づく操作計画フレームワークを提案する。
オブジェクトを符号付き距離場として表現することは、ポイントクラウドや占有率の表現よりも高い精度で、様々なモデルの学習と表現を可能にする。
論文 参考訳(メタデータ) (2021-10-02T12:36:58Z) - ZePHyR: Zero-shot Pose Hypothesis Rating [36.52070583343388]
本稿では,ゼロショット物体の姿勢推定法を提案する。
提案手法は仮説生成とスコアリングのフレームワークを用いて,トレーニングに使用されていないオブジェクトに一般化するスコアリング関数の学習に重点を置いている。
そこで本研究では,新しい物体のモデルを素早くスキャンして構築することで,本システムをどのように利用できるかを示す。
論文 参考訳(メタデータ) (2021-04-28T01:48:39Z) - Attribute-Based Robotic Grasping with One-Grasp Adaptation [9.255994599301712]
本稿では,属性に基づくロボットグリップのエンドツーエンド学習手法を提案する。
提案手法は,作業空間の画像とクエリテキストの埋め込みをゲートアテンション機構を用いて融合し,インスタンスの把握能力の予測を学習する。
シミュレーションと実世界での実験結果は、私たちのアプローチが80%以上のインスタンスで未知のオブジェクトの成功率を把握できることを示しています。
論文 参考訳(メタデータ) (2021-04-06T03:40:46Z) - Object Rearrangement Using Learned Implicit Collision Functions [61.90305371998561]
本研究では,シーン内の6DOFオブジェクトのポーズに対して,シーンとクエリ対象点の雲を受け付け,衝突を予測できる学習的衝突モデルを提案する。
我々は,テーブルトップ再構成タスクにおけるモデル予測経路積分(MPPI)ポリシーの一部として,学習された衝突モデルを活用する。
学習モデルは従来のパイプラインよりも優れており、シミュレーションされた衝突クエリのデータセット上では9.8%の精度で学習精度が向上している。
論文 参考訳(メタデータ) (2020-11-21T05:36:06Z) - CPS++: Improving Class-level 6D Pose and Shape Estimation From Monocular
Images With Self-Supervised Learning [74.53664270194643]
現代のモノクロ6Dポーズ推定手法は、少数のオブジェクトインスタンスにしか対応できない。
そこで本研究では,計量形状検索と組み合わせて,クラスレベルのモノクル6次元ポーズ推定手法を提案する。
1枚のRGB画像から正確な6Dポーズとメートル法形状を抽出できることを実験的に実証した。
論文 参考訳(メタデータ) (2020-03-12T15:28:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。