論文の概要: Real-time Simultaneous Multi-Object 3D Shape Reconstruction, 6DoF Pose
Estimation and Dense Grasp Prediction
- arxiv url: http://arxiv.org/abs/2305.09510v1
- Date: Tue, 16 May 2023 15:03:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-17 14:29:16.697403
- Title: Real-time Simultaneous Multi-Object 3D Shape Reconstruction, 6DoF Pose
Estimation and Dense Grasp Prediction
- Title(参考訳): 実時間マルチオブジェクト3次元形状再構成, 6DoFポス推定, ディエンスグラフ予測
- Authors: Shubham Agrawal, Nikhil Chavan-Dafle, Isaac Kasahara, Selim Engin,
Jinwook Huh, Volkan Isler
- Abstract要約: シーン内の全てのオブジェクトの幾何学的・意味的な情報を提供する新しい手法を提案する。
提案手法は,オブジェクトの形状,ポーズ,予測の把握など,最先端の専用手法と比較して,競争性能が向上する。
- 参考スコア(独自算出の注目度): 27.452365570403238
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Robotic manipulation systems operating in complex environments rely on
perception systems that provide information about the geometry (pose and 3D
shape) of the objects in the scene along with other semantic information such
as object labels. This information is then used for choosing the feasible
grasps on relevant objects. In this paper, we present a novel method to provide
this geometric and semantic information of all objects in the scene as well as
feasible grasps on those objects simultaneously. The main advantage of our
method is its speed as it avoids sequential perception and grasp planning
steps. With detailed quantitative analysis, we show that our method delivers
competitive performance compared to the state-of-the-art dedicated methods for
object shape, pose, and grasp predictions while providing fast inference at 30
frames per second speed.
- Abstract(参考訳): 複雑な環境で動作するロボット操作システムは、シーン内のオブジェクトの形状(位置と3d形状)に関する情報と、オブジェクトラベルなどの他の意味情報を提供する知覚システムに依存している。
この情報は、関連するオブジェクトの可能な把握を選択するために使用される。
本稿では,シーン内の全てのオブジェクトの幾何学的・意味的な情報と,それらのオブジェクトを同時に把握するための新しい手法を提案する。
提案手法の主な利点は, 逐次認識や計画手順の把握を避けるため, その速度である。
詳細な定量的解析により,本手法は,物体形状,ポーズ,把握のための最先端の専用手法と比較して,高速な推論を毎秒30フレームで実現し,競争力を発揮することを示す。
関連論文リスト
- ICGNet: A Unified Approach for Instance-Centric Grasping [42.92991092305974]
オブジェクト中心の把握のためのエンドツーエンドアーキテクチャを導入する。
提案手法の有効性を,合成データセット上での最先端手法に対して広範囲に評価することにより示す。
論文 参考訳(メタデータ) (2024-01-18T12:41:41Z) - LocaliseBot: Multi-view 3D object localisation with differentiable
rendering for robot grasping [9.690844449175948]
オブジェクトのポーズ推定に重点を置いています。
このアプローチは,オブジェクトの複数ビュー,それらの視点におけるカメラのパラメータ,オブジェクトの3次元CADモデルという3つの情報に依存している。
推定対象のポーズが99.65%の精度で真理把握候補を把握できることが示される。
論文 参考訳(メタデータ) (2023-11-14T14:27:53Z) - ShapeShift: Superquadric-based Object Pose Estimation for Robotic
Grasping [85.38689479346276]
現在の技術は参照3Dオブジェクトに大きく依存しており、その一般化性を制限し、新しいオブジェクトカテゴリに拡張するのにコストがかかる。
本稿では,オブジェクトに適合するプリミティブな形状に対してオブジェクトのポーズを予測する,オブジェクトのポーズ推定のためのスーパークワッドリックベースのフレームワークであるShapeShiftを提案する。
論文 参考訳(メタデータ) (2023-04-10T20:55:41Z) - SpOT: Spatiotemporal Modeling for 3D Object Tracking [68.12017780034044]
3Dマルチオブジェクトトラッキングは、常にすべてのモバイル時間を特定することを目的としている。
現在の3Dトラッキング手法は、抽象化された情報と限られた歴史に依存している。
本研究では,空間的情報と時間的情報の両方を活用するシーンの全体的表現を開発する。
論文 参考訳(メタデータ) (2022-07-12T21:45:49Z) - Object Scene Representation Transformer [56.40544849442227]
オブジェクトシーン表現変換(OSRT: Object Scene Representation Transformer)は、新しいビュー合成を通じて、個々のオブジェクト表現が自然に現れる3D中心のモデルである。
OSRTは、既存のメソッドよりもオブジェクトとバックグラウンドの多様性が大きい、はるかに複雑なシーンにスケールする。
光電場パラメトリゼーションと新しいSlot Mixerデコーダのおかげで、合成レンダリングでは桁違いに高速である。
論文 参考訳(メタデータ) (2022-06-14T15:40:47Z) - Lifelong Ensemble Learning based on Multiple Representations for
Few-Shot Object Recognition [6.282068591820947]
本稿では,複数表現に基づく一生涯のアンサンブル学習手法を提案する。
生涯学習を容易にするため、各アプローチは、オブジェクト情報を即座に保存して検索するメモリユニットを備える。
提案手法の有効性を,オフラインおよびオープンエンドシナリオで評価するために,幅広い実験を行った。
論文 参考訳(メタデータ) (2022-05-04T10:29:10Z) - VAT-Mart: Learning Visual Action Trajectory Proposals for Manipulating
3D ARTiculated Objects [19.296344218177534]
3次元の明瞭な物体の空間は、その無数の意味圏、多様な形状幾何学、複雑な部分関数に非常に豊富である。
それまでの作業は, 関節パラメータを推定し, 3次元関節物体の視覚的表現として機能する, 抽象運動学的な構造が主流であった。
本研究では,物体中心の動作可能な視覚的先入観を,知覚システムが運動構造推定よりも動作可能なガイダンスを出力する,新しい知覚-相互作用ハンドシェイキングポイントとして提案する。
論文 参考訳(メタデータ) (2021-06-28T07:47:31Z) - Analysis of voxel-based 3D object detection methods efficiency for
real-time embedded systems [93.73198973454944]
本稿では, ボクセルをベースとした2つの3次元物体検出手法について述べる。
実験の結果,これらの手法は入力点雲が遠距離にあるため,遠距離の小さな物体を検出できないことが確認できた。
この結果から,既存手法の計算のかなりの部分は,検出に寄与しないシーンの位置に着目していることが示唆された。
論文 参考訳(メタデータ) (2021-05-21T12:40:59Z) - Continuous Surface Embeddings [76.86259029442624]
我々は、変形可能な対象カテゴリーにおける密接な対応を学習し、表現するタスクに焦点をあてる。
本稿では,高密度対応の新たな学習可能な画像ベース表現を提案する。
提案手法は,人間の身近なポーズ推定のための最先端手法と同等以上の性能を示すことを示す。
論文 参考訳(メタデータ) (2020-11-24T22:52:15Z) - Occlusion resistant learning of intuitive physics from videos [52.25308231683798]
人工システムの鍵となる能力は、オブジェクト間の物理的相互作用を理解し、状況の将来的な結果を予測することである。
この能力は直感的な物理学と呼ばれ、近年注目されており、ビデオシーケンスからこれらの物理規則を学ぶためのいくつかの方法が提案されている。
論文 参考訳(メタデータ) (2020-04-30T19:35:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。