論文の概要: ICGNet: A Unified Approach for Instance-Centric Grasping
- arxiv url: http://arxiv.org/abs/2401.09939v1
- Date: Thu, 18 Jan 2024 12:41:41 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-19 16:47:14.308263
- Title: ICGNet: A Unified Approach for Instance-Centric Grasping
- Title(参考訳): icgnet:インスタンス中心の把握のための統一的アプローチ
- Authors: Ren\'e Zurbr\"ugg, Yifan Liu, Francis Engelmann, Suryansh Kumar, Marco
Hutter, Vaishakh Patil, Fisher Yu
- Abstract要約: オブジェクト中心の把握のためのエンドツーエンドアーキテクチャを導入する。
提案手法の有効性を,合成データセット上での最先端手法に対して広範囲に評価することにより示す。
- 参考スコア(独自算出の注目度): 44.75280244958735
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Accurate grasping is the key to several robotic tasks including assembly and
household robotics. Executing a successful grasp in a cluttered environment
requires multiple levels of scene understanding: First, the robot needs to
analyze the geometric properties of individual objects to find feasible grasps.
These grasps need to be compliant with the local object geometry. Second, for
each proposed grasp, the robot needs to reason about the interactions with
other objects in the scene. Finally, the robot must compute a collision-free
grasp trajectory while taking into account the geometry of the target object.
Most grasp detection algorithms directly predict grasp poses in a monolithic
fashion, which does not capture the composability of the environment. In this
paper, we introduce an end-to-end architecture for object-centric grasping. The
method uses pointcloud data from a single arbitrary viewing direction as an
input and generates an instance-centric representation for each partially
observed object in the scene. This representation is further used for object
reconstruction and grasp detection in cluttered table-top scenes. We show the
effectiveness of the proposed method by extensively evaluating it against
state-of-the-art methods on synthetic datasets, indicating superior performance
for grasping and reconstruction. Additionally, we demonstrate real-world
applicability by decluttering scenes with varying numbers of objects.
- Abstract(参考訳): 正確な把握は、組み立てや家庭用ロボットなど、いくつかのロボットタスクの鍵となる。
まず、ロボットは個々の物体の幾何学的性質を分析して、実現可能な把握方法を見つける必要があります。
これらの把握は局所オブジェクト幾何学に準拠する必要がある。
第二に、提案された各グリップに対して、ロボットはシーン内の他のオブジェクトとの相互作用を判断する必要がある。
最後に,ロボットは対象物体の形状を考慮しつつ,衝突のないグリップ軌跡を計算しなければならない。
ほとんどの把持検出アルゴリズムは、環境のコンポーザビリティを捉えないモノリシックな方法で把持ポーズを直接予測する。
本稿では,オブジェクト中心の把握のためのエンドツーエンドアーキテクチャを提案する。
この方法は、任意の一方向からのポイントクラウドデータを入力として使用し、シーン内の各部分観察対象に対してインスタンス中心の表現を生成する。
この表現は、乱雑なテーブルトップシーンにおけるオブジェクトの再構成と把握検出にさらに用いられる。
提案手法の有効性を,合成データセット上での最先端手法に対して広範囲に評価し,把握と再構築に優れた性能を示す。
さらに,様々なオブジェクトのシーンを分解することにより,実世界の適用性を示す。
関連論文リスト
- ShapeGrasp: Zero-Shot Task-Oriented Grasping with Large Language Models through Geometric Decomposition [8.654140442734354]
不慣れな物体のタスク指向の把握は、動的家庭環境におけるロボットにとって必要なスキルである。
本稿では,対象物体の幾何学的分解を簡単な凸形状に生かしたゼロショットタスク指向の把握手法を提案する。
このアプローチでは、ゼロショットタスク指向の把握を容易にするために、最小限の必須情報(オブジェクト名と意図したタスク)を使用します。
論文 参考訳(メタデータ) (2024-03-26T19:26:53Z) - LocaliseBot: Multi-view 3D object localisation with differentiable
rendering for robot grasping [9.690844449175948]
オブジェクトのポーズ推定に重点を置いています。
このアプローチは,オブジェクトの複数ビュー,それらの視点におけるカメラのパラメータ,オブジェクトの3次元CADモデルという3つの情報に依存している。
推定対象のポーズが99.65%の精度で真理把握候補を把握できることが示される。
論文 参考訳(メタデータ) (2023-11-14T14:27:53Z) - Graphical Object-Centric Actor-Critic [55.2480439325792]
本稿では,アクター批判とモデルに基づくアプローチを組み合わせたオブジェクト中心強化学習アルゴリズムを提案する。
変換器エンコーダを用いてオブジェクト表現とグラフニューラルネットワークを抽出し、環境のダイナミクスを近似する。
本アルゴリズムは,現状のモデルフリーアクター批判アルゴリズムよりも複雑な3次元ロボット環境と構成構造をもつ2次元環境において,より優れた性能を発揮する。
論文 参考訳(メタデータ) (2023-10-26T06:05:12Z) - You Only Look at One: Category-Level Object Representations for Pose
Estimation From a Single Example [26.866356430469757]
所望のカテゴリから1つのオブジェクトだけを検査してカテゴリレベルのポーズ推定を行う手法を提案する。
本稿では,RGBDセンサを搭載したロボットマニピュレータを用いて,新しい物体のオンライン6次元ポーズ推定を行う。
論文 参考訳(メタデータ) (2023-05-22T01:32:24Z) - Discovering Objects that Can Move [55.743225595012966]
手動ラベルなしでオブジェクトを背景から分離する、オブジェクト発見の問題について検討する。
既存のアプローチでは、色、テクスチャ、位置などの外観の手がかりを使用して、ピクセルをオブジェクトのような領域に分類する。
私たちは、動的オブジェクト -- 世界で独立して動くエンティティ -- にフォーカスすることを選びます。
論文 参考訳(メタデータ) (2022-03-18T21:13:56Z) - IFOR: Iterative Flow Minimization for Robotic Object Rearrangement [92.97142696891727]
IFOR(Iterative Flow Minimization for Robotic Object Rearrangement)は、未知物体の物体再構成問題に対するエンドツーエンドの手法である。
本手法は,合成データのみを訓練しながら,散在するシーンや実世界に適用可能であることを示す。
論文 参考訳(メタデータ) (2022-02-01T20:03:56Z) - MetaGraspNet: A Large-Scale Benchmark Dataset for Vision-driven Robotic
Grasping via Physics-based Metaverse Synthesis [78.26022688167133]
本稿では,物理に基づくメタバース合成による視覚駆動型ロボットグルーピングのための大規模ベンチマークデータセットを提案する。
提案するデータセットには,10万の画像と25種類のオブジェクトが含まれている。
また,オブジェクト検出とセグメンテーション性能を評価するためのデータセットとともに,新しいレイアウト重み付け性能指標を提案する。
論文 参考訳(メタデータ) (2021-12-29T17:23:24Z) - DemoGrasp: Few-Shot Learning for Robotic Grasping with Human
Demonstration [42.19014385637538]
本稿では,ロボットに対して,単純で短い人間の実演で物体をつかむ方法を教えることを提案する。
まず、人間と物体の相互作用を示すRGB-D画像の小さなシーケンスを提示する。
このシーケンスを使用して、インタラクションを表す手とオブジェクトメッシュを構築する。
論文 参考訳(メタデータ) (2021-12-06T08:17:12Z) - Semantically Grounded Object Matching for Robust Robotic Scene
Rearrangement [21.736603698556042]
そこで本研究では,大規模な事前学習型視覚言語モデルを用いて,オブジェクトをクロスインスタンス設定でマッチングするオブジェクトマッチング手法を提案する。
これにより、クロスインスタンス環境でのマッチング性能が大幅に向上することを示す。
論文 参考訳(メタデータ) (2021-11-15T18:39:43Z) - RICE: Refining Instance Masks in Cluttered Environments with Graph
Neural Networks [53.15260967235835]
本稿では,インスタンスマスクのグラフベース表現を利用して,そのような手法の出力を改良する新しいフレームワークを提案する。
我々は、セグメンテーションにスマートな摂動をサンプリングできるディープネットワークと、オブジェクト間の関係をエンコード可能なグラフニューラルネットワークを訓練し、セグメンテーションを評価する。
本稿では,本手法によって生成された不確実性推定を用いてマニピュレータを誘導し,乱れたシーンを効率的に理解するアプリケーションについて紹介する。
論文 参考訳(メタデータ) (2021-06-29T20:29:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。