論文の概要: CenterGrasp: Object-Aware Implicit Representation Learning for
Simultaneous Shape Reconstruction and 6-DoF Grasp Estimation
- arxiv url: http://arxiv.org/abs/2312.08240v1
- Date: Wed, 13 Dec 2023 16:01:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-14 14:46:22.990056
- Title: CenterGrasp: Object-Aware Implicit Representation Learning for
Simultaneous Shape Reconstruction and 6-DoF Grasp Estimation
- Title(参考訳): CenterGrasp:同時形状再構成と6-DoFグラフ推定のためのオブジェクト認識命令表現学習
- Authors: Eugenio Chisari, Nick Heppert, Tim Welschehold, Wolfram Burgard,
Abhinav Valada
- Abstract要約: 対象認識と全体的把握を組み合わせた新しいフレームワークであるCenterGraspを紹介する。
CenterGraspは、形を符号化する前に一般的なオブジェクトを学習し、連続的な潜伏空間で有効な把握を行う。
芸術の状況と比較して、CenterGraspは形状復元における38.5mm、把握成功における平均33パーセントの改善を実現している。
- 参考スコア(独自算出の注目度): 25.96591343506919
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Reliable object grasping is a crucial capability for autonomous robots.
However, many existing grasping approaches focus on general clutter removal
without explicitly modeling objects and thus only relying on the visible local
geometry. We introduce CenterGrasp, a novel framework that combines object
awareness and holistic grasping. CenterGrasp learns a general object prior by
encoding shapes and valid grasps in a continuous latent space. It consists of
an RGB-D image encoder that leverages recent advances to detect objects and
infer their pose and latent code, and a decoder to predict shape and grasps for
each object in the scene. We perform extensive experiments on simulated as well
as real-world cluttered scenes and demonstrate strong scene reconstruction and
6-DoF grasp-pose estimation performance. Compared to the state of the art,
CenterGrasp achieves an improvement of 38.5 mm in shape reconstruction and 33
percentage points on average in grasp success. We make the code and trained
models publicly available at http://centergrasp.cs.uni-freiburg.de.
- Abstract(参考訳): 信頼できる物体把握は自律ロボットにとって重要な能力である。
しかし、既存の多くの把持アプローチでは、オブジェクトを明示的にモデル化することなく、一般的なクラッター除去に焦点を当てているため、可視的な局所幾何学のみに依存する。
対象認識と全体的把握を組み合わせた新しいフレームワークであるCenterGraspを紹介する。
CenterGraspは、形を符号化する前に一般的なオブジェクトを学習し、連続的な潜伏空間で有効な把握を行う。
RGB-D画像エンコーダは、最近の進歩を活用して、オブジェクトを検出し、ポーズと潜在コードを推測し、デコーダによってシーンの各オブジェクトの形状と把握を予測する。
シミュレーションと実世界のごちゃごちゃしたシーンを広範囲に実験し,強いシーン再構成と6自由度把握・推定性能を示す。
芸術の状況と比較して、CenterGraspは形状復元における38.5mm、把握成功における平均33パーセントの改善を実現している。
コードとトレーニングされたモデルをhttp://centergrasp.cs.uni-freiburg.deで公開しています。
関連論文リスト
- Self-supervised 3D Point Cloud Completion via Multi-view Adversarial Learning [61.14132533712537]
我々は、オブジェクトレベルとカテゴリ固有の幾何学的類似性の両方を効果的に活用するフレームワークであるMAL-SPCを提案する。
私たちのMAL-SPCは3Dの完全な監視を一切必要とせず、各オブジェクトに1つの部分点クラウドを必要とするだけです。
論文 参考訳(メタデータ) (2024-07-13T06:53:39Z) - CenterArt: Joint Shape Reconstruction and 6-DoF Grasp Estimation of Articulated Objects [7.515346693063448]
CenterArtは3次元形状復元と6-DoFグリップ推定を同時に行う新しい手法である。
シーンのRGB-D画像を入力として、まずエンコーダを通して形状とジョイントコードを予測する。
デコーダは、これらのコードを利用して3D形状を再構成し、オブジェクトの6-DoFグリップポーズを推定する。
論文 参考訳(メタデータ) (2024-04-23T12:23:42Z) - Uncertainty-aware Active Learning of NeRF-based Object Models for Robot Manipulators using Visual and Re-orientation Actions [8.059133373836913]
本稿では,ロボットが対象物の完全な3次元モデルを高速に学習し,不慣れな方向で操作できるアプローチを提案する。
我々は、部分的に構築されたNeRFモデルのアンサンブルを用いて、モデルの不確実性を定量化し、次の動作を決定する。
提案手法は, 部分的NeRFモデルにより対象物をいつ, どのように把握し, 再指向するかを判断し, 相互作用中に導入された不整合を補正するために, 対象のポーズを再推定する。
論文 参考訳(メタデータ) (2024-04-02T10:15:06Z) - MegaPose: 6D Pose Estimation of Novel Objects via Render & Compare [84.80956484848505]
MegaPoseは、トレーニング中に見えない新しいオブジェクトの6Dポーズを推定する方法である。
本稿では,新しいオブジェクトに適用可能なR&Compare戦略に基づく6次元ポーズリファインダを提案する。
第2に,合成レンダリングと同一物体の観察画像間のポーズ誤差をリファインダで補正できるか否かを分類するために訓練されたネットワークを利用する,粗いポーズ推定のための新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-12-13T19:30:03Z) - Generative Category-Level Shape and Pose Estimation with Semantic
Primitives [27.692997522812615]
本稿では,1枚のRGB-D画像からカテゴリレベルのオブジェクト形状とポーズ推定を行う新しいフレームワークを提案する。
カテゴリ内変動に対処するために、様々な形状を統一された潜在空間にエンコードするセマンティックプリミティブ表現を採用する。
提案手法は,実世界のデータセットにおいて,SOTAのポーズ推定性能とより優れた一般化を実現する。
論文 参考訳(メタデータ) (2022-10-03T17:51:54Z) - Disentangled Implicit Shape and Pose Learning for Scalable 6D Pose
Estimation [44.8872454995923]
単一オートエンコーダを用いた複数オブジェクトの合成データに対する自己教師付き学習により,スケーラブルな6次元ポーズ推定のための新しい手法を提案する。
提案手法は,T-LESS と NOCS REAL275 という実データを持つ2つのマルチオブジェクトベンチマークで検証し,ポーズ推定精度と一般化の点で既存の RGB 法より優れていることを示す。
論文 参考訳(メタデータ) (2021-07-27T01:55:30Z) - Unsupervised Learning of 3D Object Categories from Videos in the Wild [75.09720013151247]
オブジェクトインスタンスの大規模なコレクションの複数のビューからモデルを学ぶことに重点を置いています。
再構成を大幅に改善するワープコンディショニングレイ埋め込み(WCR)と呼ばれる新しいニューラルネットワーク設計を提案する。
本評価は,既存のベンチマークを用いた複数の深部単眼再構成ベースラインに対する性能改善を示す。
論文 参考訳(メタデータ) (2021-03-30T17:57:01Z) - From Points to Multi-Object 3D Reconstruction [71.17445805257196]
単一のRGB画像から複数の3Dオブジェクトを検出し再構成する方法を提案する。
キーポイント検出器は、オブジェクトを中心点としてローカライズし、9-DoF境界ボックスや3D形状を含む全てのオブジェクト特性を直接予測する。
提示されたアプローチは、軽量な再構築を単一ステージで実行し、リアルタイム能力を持ち、完全に微分可能で、エンドツーエンドのトレーナーブルである。
論文 参考訳(メタデータ) (2020-12-21T18:52:21Z) - Weakly Supervised Learning of Multi-Object 3D Scene Decompositions Using
Deep Shape Priors [69.02332607843569]
PriSMONetは、単一画像から多目的3Dシーンの分解と表現を学習するための新しいアプローチである。
リカレントエンコーダは、入力されたRGB画像から、各オブジェクトの3D形状、ポーズ、テクスチャの潜時表現を回帰する。
我々は,3次元シーンレイアウトの推測におけるモデルの精度を評価し,その生成能力を実証し,実画像への一般化を評価し,学習した表現の利点を指摘する。
論文 参考訳(メタデータ) (2020-10-08T14:49:23Z) - Shape Prior Deformation for Categorical 6D Object Pose and Size
Estimation [62.618227434286]
RGB-D画像から見えないオブジェクトの6Dポーズとサイズを復元する新しい学習手法を提案する。
本研究では,事前学習したカテゴリ形状からの変形を明示的にモデル化することにより,3次元オブジェクトモデルを再構築するディープネットワークを提案する。
論文 参考訳(メタデータ) (2020-07-16T16:45:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。