論文の概要: DemoGrasp: Few-Shot Learning for Robotic Grasping with Human
Demonstration
- arxiv url: http://arxiv.org/abs/2112.02849v1
- Date: Mon, 6 Dec 2021 08:17:12 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-07 18:02:01.277964
- Title: DemoGrasp: Few-Shot Learning for Robotic Grasping with Human
Demonstration
- Title(参考訳): DemoGrasp: 人間のデモによるロボットグラスピングのためのFew-Shot Learning
- Authors: Pengyuan Wang, Fabian Manhardt, Luca Minciullo, Lorenzo Garattoni,
Sven Meie, Nassir Navab and Benjamin Busam
- Abstract要約: 本稿では,ロボットに対して,単純で短い人間の実演で物体をつかむ方法を教えることを提案する。
まず、人間と物体の相互作用を示すRGB-D画像の小さなシーケンスを提示する。
このシーケンスを使用して、インタラクションを表す手とオブジェクトメッシュを構築する。
- 参考スコア(独自算出の注目度): 42.19014385637538
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The ability to successfully grasp objects is crucial in robotics, as it
enables several interactive downstream applications. To this end, most
approaches either compute the full 6D pose for the object of interest or learn
to predict a set of grasping points. While the former approaches do not scale
well to multiple object instances or classes yet, the latter require large
annotated datasets and are hampered by their poor generalization capabilities
to new geometries. To overcome these shortcomings, we propose to teach a robot
how to grasp an object with a simple and short human demonstration. Hence, our
approach neither requires many annotated images nor is it restricted to a
specific geometry. We first present a small sequence of RGB-D images displaying
a human-object interaction. This sequence is then leveraged to build associated
hand and object meshes that represent the depicted interaction. Subsequently,
we complete missing parts of the reconstructed object shape and estimate the
relative transformation between the reconstruction and the visible object in
the scene. Finally, we transfer the a-priori knowledge from the relative pose
between object and human hand with the estimate of the current object pose in
the scene into necessary grasping instructions for the robot. Exhaustive
evaluations with Toyota's Human Support Robot (HSR) in real and synthetic
environments demonstrate the applicability of our proposed methodology and its
advantage in comparison to previous approaches.
- Abstract(参考訳): オブジェクトをうまく把握する能力は、いくつかのインタラクティブな下流アプリケーションを可能にするため、ロボット工学において不可欠である。
この目的のために、ほとんどのアプローチは、興味の対象に対する完全な6Dポーズを計算するか、あるいは把握点の集合を予測することを学ぶ。
以前のアプローチは、複数のオブジェクトインスタンスやクラスにはまだうまくスケールしていないが、後者は大きなアノテーション付きデータセットを必要とし、新しいジオメトリへの一般化能力の不足によって妨げられている。
これらの欠点を克服するために,簡単な人間によるデモンストレーションで物体の把握方法をロボットに教えることを提案する。
したがって、我々のアプローチは多くの注釈付き画像を必要としないし、特定の幾何学に制限されない。
まず、人間と物体の相互作用を示すRGB-D画像の小さなシーケンスを示す。
このシーケンスを使用して、表現されたインタラクションを表す手とオブジェクトメッシュを構築する。
その後,復元された物体形状の欠落部分を完成させ,再現とシーン内の可視物体との相対的変化を推定する。
最後に、現場における現在の対象ポーズの推定をロボットに必要な把持指示にすることで、対象と人の相対的なポーズからa-priori知識を伝達する。
実環境および合成環境におけるToyotaのヒューマンサポートロボット(HSR)による被ばく評価は,提案手法の適用性と,従来手法と比較して優位性を示す。
関連論文リスト
- 3D Foundation Models Enable Simultaneous Geometry and Pose Estimation of Grasped Objects [13.58353565350936]
本研究では,ロボットが把握した物体の形状と姿勢を共同で推定する手法を提案する。
提案手法は,推定幾何をロボットの座標フレームに変換する。
我々は,実世界の多様な物体の集合を保持するロボットマニピュレータに対する我々のアプローチを実証的に評価した。
論文 参考訳(メタデータ) (2024-07-14T21:02:55Z) - ICGNet: A Unified Approach for Instance-Centric Grasping [42.92991092305974]
オブジェクト中心の把握のためのエンドツーエンドアーキテクチャを導入する。
提案手法の有効性を,合成データセット上での最先端手法に対して広範囲に評価することにより示す。
論文 参考訳(メタデータ) (2024-01-18T12:41:41Z) - GS-Pose: Category-Level Object Pose Estimation via Geometric and
Semantic Correspondence [5.500735640045456]
カテゴリーレベルのポーズ推定は、コンピュータビジョンやロボット工学における多くの潜在的な応用において難しい課題である。
本稿では,事前学習した基礎モデルから得られる幾何学的特徴と意味的特徴の両方を活用することを提案する。
これは、セマンティックな特徴がオブジェクトのテクスチャや外観に対して堅牢であるため、以前のメソッドよりもトレーニングするデータを大幅に少なくする。
論文 参考訳(メタデータ) (2023-11-23T02:35:38Z) - Full-Body Articulated Human-Object Interaction [61.01135739641217]
CHAIRSは16.2時間の多目的相互作用からなる大規模な動きキャプチャーされたf-AHOIデータセットである。
CHAIRSは、対話的なプロセス全体を通して、人間と明瞭なオブジェクトの両方の3Dメッシュを提供する。
HOIにおける幾何学的関係を学習することにより,人間のポーズ推定を利用した最初のモデルが考案された。
論文 参考訳(メタデータ) (2022-12-20T19:50:54Z) - CHORE: Contact, Human and Object REconstruction from a single RGB image [40.817960406002506]
CHOREは、1枚のRGB画像から人間と物体を共同で再構築する方法である。
2つの符号のない距離場で暗黙的に表現された人間と物体の神経再構成を計算する。
提案手法で得られた共同再建がSOTAを著しく上回ることを示す実験を行った。
論文 参考訳(メタデータ) (2022-04-05T18:38:06Z) - IFOR: Iterative Flow Minimization for Robotic Object Rearrangement [92.97142696891727]
IFOR(Iterative Flow Minimization for Robotic Object Rearrangement)は、未知物体の物体再構成問題に対するエンドツーエンドの手法である。
本手法は,合成データのみを訓練しながら,散在するシーンや実世界に適用可能であることを示す。
論文 参考訳(メタデータ) (2022-02-01T20:03:56Z) - Towards unconstrained joint hand-object reconstruction from RGB videos [81.97694449736414]
ハンドオブジェクト操作の再構築は、ロボット工学と人間のデモから学ぶ大きな可能性を秘めている。
まず,手動物体の相互作用をシームレスに処理できる学習不要な手動物体再構成手法を提案する。
論文 参考訳(メタデータ) (2021-08-16T12:26:34Z) - Simultaneous Multi-View Object Recognition and Grasping in Open-Ended
Domains [0.0]
オープンなオブジェクト認識と把握を同時に行うために,メモリ容量を増強したディープラーニングアーキテクチャを提案する。
シミュレーションと実世界設定の両方において,本手法が未確認のオブジェクトを把握し,現場でのごくわずかな例を用いて,新たなオブジェクトカテゴリを迅速に学習できることを実証する。
論文 参考訳(メタデータ) (2021-06-03T14:12:11Z) - Nothing But Geometric Constraints: A Model-Free Method for Articulated
Object Pose Estimation [89.82169646672872]
本稿では,ロボットアームの関節構成を,モデルに先入観を持たずにRGBまたはRGB-D画像のシーケンスから推定する,教師なし視覚ベースシステムを提案する。
我々は,古典幾何学的定式化と深層学習を組み合わせることで,この課題を解決するために,極性多剛体制約を拡張した。
論文 参考訳(メタデータ) (2020-11-30T20:46:48Z) - CPS++: Improving Class-level 6D Pose and Shape Estimation From Monocular
Images With Self-Supervised Learning [74.53664270194643]
現代のモノクロ6Dポーズ推定手法は、少数のオブジェクトインスタンスにしか対応できない。
そこで本研究では,計量形状検索と組み合わせて,クラスレベルのモノクル6次元ポーズ推定手法を提案する。
1枚のRGB画像から正確な6Dポーズとメートル法形状を抽出できることを実験的に実証した。
論文 参考訳(メタデータ) (2020-03-12T15:28:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。