論文の概要: CenterArt: Joint Shape Reconstruction and 6-DoF Grasp Estimation of Articulated Objects
- arxiv url: http://arxiv.org/abs/2404.14968v1
- Date: Tue, 23 Apr 2024 12:23:42 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-24 14:11:34.416403
- Title: CenterArt: Joint Shape Reconstruction and 6-DoF Grasp Estimation of Articulated Objects
- Title(参考訳): CenterArt:関節形状再構成と人工物体の6-DoFグラフ推定
- Authors: Sassan Mokhtar, Eugenio Chisari, Nick Heppert, Abhinav Valada,
- Abstract要約: CenterArtは3次元形状復元と6-DoFグリップ推定を同時に行う新しい手法である。
シーンのRGB-D画像を入力として、まずエンコーダを通して形状とジョイントコードを予測する。
デコーダは、これらのコードを利用して3D形状を再構成し、オブジェクトの6-DoFグリップポーズを推定する。
- 参考スコア(独自算出の注目度): 7.515346693063448
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Precisely grasping and reconstructing articulated objects is key to enabling general robotic manipulation. In this paper, we propose CenterArt, a novel approach for simultaneous 3D shape reconstruction and 6-DoF grasp estimation of articulated objects. CenterArt takes RGB-D images of the scene as input and first predicts the shape and joint codes through an encoder. The decoder then leverages these codes to reconstruct 3D shapes and estimate 6-DoF grasp poses of the objects. We further develop a mechanism for generating a dataset of 6-DoF grasp ground truth poses for articulated objects. CenterArt is trained on realistic scenes containing multiple articulated objects with randomized designs, textures, lighting conditions, and realistic depths. We perform extensive experiments demonstrating that CenterArt outperforms existing methods in accuracy and robustness.
- Abstract(参考訳): ロボット操作を実現する上では, 精密な把握と再構築が重要である。
本稿では,3次元形状再構成と6-DoFグルーピング推定のための新しい手法であるCenterArtを提案する。
CenterArtはシーンのRGB-D画像を入力として、まずエンコーダを通して形状とジョイントコードを予測します。
デコーダは、これらのコードを利用して3D形状を再構成し、オブジェクトの6-DoFグリップポーズを推定する。
さらに,6-DoFのグルーフポーズのデータセットを生成する機構を開発した。
CenterArtは、ランダムなデザイン、テクスチャ、照明条件、現実的な深さを含む複数の明瞭なオブジェクトを含む現実的なシーンで訓練されている。
私たちはCenterArtが既存の手法よりも精度と堅牢性で優れていることを示す広範な実験を行った。
関連論文リスト
- WALT3D: Generating Realistic Training Data from Time-Lapse Imagery for Reconstructing Dynamic Objects under Occlusion [20.014258835647716]
本稿では,時間経過画像を用いた閉塞下での動的オブジェクトの大規模で現実的なデータセットを自動的に生成する新しいフレームワークを提案する。
既設の2D(バウンディングボックス、セグメンテーション、キーポイント)と3D(目的、形状)の予測を擬似グラウンドトゥルスとして活用することにより、未禁止の3Dオブジェクトを自動的に識別し、クリップアート形式で背景に合成する。
提案手法は,2次元と3次元の両方の再現において,特に車両や都市部で密集した物体のシナリオにおいて,顕著な改善を示すものである。
論文 参考訳(メタデータ) (2024-03-27T21:24:20Z) - CenterGrasp: Object-Aware Implicit Representation Learning for Simultaneous Shape Reconstruction and 6-DoF Grasp Estimation [24.20283483897243]
対象認識と全体的把握を組み合わせた新しいフレームワークであるCenterGraspを紹介する。
CenterGraspは、形を符号化する前に一般的なオブジェクトを学習し、連続的な潜伏空間で有効な把握を行う。
芸術の状況と比較して、CenterGraspは形状復元における38.5mm、把握成功における平均33パーセントの改善を実現している。
論文 参考訳(メタデータ) (2023-12-13T16:01:50Z) - HOLD: Category-agnostic 3D Reconstruction of Interacting Hands and
Objects from Video [70.11702620562889]
HOLD - 単分子インタラクションビデオから手とオブジェクトを共同で再構成する最初のカテゴリーに依存しない方法。
我々は,3次元手と物体を2次元画像から切り離すことができる構成的明瞭な暗黙モデルを開発した。
本手法は,3次元手オブジェクトアノテーションに頼らず,組込みと組込みの両面において,完全教師付きベースラインに優れる。
論文 参考訳(メタデータ) (2023-11-30T10:50:35Z) - ShapeGraFormer: GraFormer-Based Network for Hand-Object Reconstruction from a Single Depth Map [11.874184782686532]
そこで本研究では, 現実的な3次元物体形状に対する最初のアプローチを提案し, 一つの深度マップから復元する。
我々のパイプラインは、入力されたボキセル化深度に1対1のマッピングを持つ、ボキセル化ハンドオブジェクト形状も予測する。
さらに、手動オブジェクトの相互作用に基づいて再構成された形状を洗練する別のGraFormerコンポーネントを追加する影響を示す。
論文 参考訳(メタデータ) (2023-10-18T09:05:57Z) - Object Scene Representation Transformer [56.40544849442227]
オブジェクトシーン表現変換(OSRT: Object Scene Representation Transformer)は、新しいビュー合成を通じて、個々のオブジェクト表現が自然に現れる3D中心のモデルである。
OSRTは、既存のメソッドよりもオブジェクトとバックグラウンドの多様性が大きい、はるかに複雑なシーンにスケールする。
光電場パラメトリゼーションと新しいSlot Mixerデコーダのおかげで、合成レンダリングでは桁違いに高速である。
論文 参考訳(メタデータ) (2022-06-14T15:40:47Z) - What's in your hands? 3D Reconstruction of Generic Objects in Hands [49.12461675219253]
我々の研究は、単一のRGB画像からハンドヘルドオブジェクトを再構築することを目的としている。
通常、既知の3Dテンプレートを仮定し、問題を3Dポーズ推定に還元する以前の作業とは対照的に、我々の作業は3Dテンプレートを知らずに汎用的なハンドヘルドオブジェクトを再構成する。
論文 参考訳(メタデータ) (2022-04-14T17:59:02Z) - Object Wake-up: 3-D Object Reconstruction, Animation, and in-situ
Rendering from a Single Image [58.69732754597448]
椅子の写真があれば、椅子の3次元形状を抽出し、その可愛らしい調音や動きをアニメーション化し、元の画像空間でその場でレンダリングできるだろうか?
単一画像中の調音対象を抽出・操作するための自動アプローチを考案する。
論文 参考訳(メタデータ) (2021-08-05T16:20:12Z) - From Points to Multi-Object 3D Reconstruction [71.17445805257196]
単一のRGB画像から複数の3Dオブジェクトを検出し再構成する方法を提案する。
キーポイント検出器は、オブジェクトを中心点としてローカライズし、9-DoF境界ボックスや3D形状を含む全てのオブジェクト特性を直接予測する。
提示されたアプローチは、軽量な再構築を単一ステージで実行し、リアルタイム能力を持ち、完全に微分可能で、エンドツーエンドのトレーナーブルである。
論文 参考訳(メタデータ) (2020-12-21T18:52:21Z) - Weakly Supervised Learning of Multi-Object 3D Scene Decompositions Using
Deep Shape Priors [69.02332607843569]
PriSMONetは、単一画像から多目的3Dシーンの分解と表現を学習するための新しいアプローチである。
リカレントエンコーダは、入力されたRGB画像から、各オブジェクトの3D形状、ポーズ、テクスチャの潜時表現を回帰する。
我々は,3次元シーンレイアウトの推測におけるモデルの精度を評価し,その生成能力を実証し,実画像への一般化を評価し,学習した表現の利点を指摘する。
論文 参考訳(メタデータ) (2020-10-08T14:49:23Z) - CoReNet: Coherent 3D scene reconstruction from a single RGB image [43.74240268086773]
我々は1つのRBG画像のみを入力として与えられた1つの物体の形状を再構築する深層学習の進歩の上に構築する。
提案する3つの拡張は,(1)局所的な2次元情報を物理的に正しい方法で出力3Dボリュームに伝播するレイトレーシングスキップ接続,(2)翻訳同変モデルの構築を可能にするハイブリッド3Dボリューム表現,(3)全体オブジェクトの形状を捉えるために調整された再構成損失である。
すべての物体がカメラに対して一貫した1つの3次元座標フレームに居住し、3次元空間内では交差しないコヒーレントな再構成を実現する。
論文 参考訳(メタデータ) (2020-04-27T17:53:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。