論文の概要: NeuralGrasps: Learning Implicit Representations for Grasps of Multiple
Robotic Hands
- arxiv url: http://arxiv.org/abs/2207.02959v1
- Date: Wed, 6 Jul 2022 20:33:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-16 11:14:00.379634
- Title: NeuralGrasps: Learning Implicit Representations for Grasps of Multiple
Robotic Hands
- Title(参考訳): Neural Grasps: 複数のロボットハンドのグラフを学習する
- Authors: Ninad Khargonkar, Neil Song, Zesheng Xu, Balakrishnan Prabhakaran, Yu
Xiang
- Abstract要約: 複数のロボットハンドから物体をつかむ神経暗黙表現を導入する。
複数のロボットハンドにまたがる異なるグリップは、共有潜在空間に符号化される。
グリップトランスファーは、ロボット間で把握スキルを共有し、ロボットが人間から把握スキルを学習できるようにする可能性がある。
- 参考スコア(独自算出の注目度): 15.520158510964757
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce a neural implicit representation for grasps of objects from
multiple robotic hands. Different grasps across multiple robotic hands are
encoded into a shared latent space. Each latent vector is learned to decode to
the 3D shape of an object and the 3D shape of a robotic hand in a grasping pose
in terms of the signed distance functions of the two 3D shapes. In addition,
the distance metric in the latent space is learned to preserve the similarity
between grasps across different robotic hands, where the similarity of grasps
is defined according to contact regions of the robotic hands. This property
enables our method to transfer grasps between different grippers including a
human hand, and grasp transfer has the potential to share grasping skills
between robots and enable robots to learn grasping skills from humans.
Furthermore, the encoded signed distance functions of objects and grasps in our
implicit representation can be used for 6D object pose estimation with grasping
contact optimization from partial point clouds, which enables robotic grasping
in the real world.
- Abstract(参考訳): 複数のロボットハンドから物体を把握するための暗黙表現を導入する。
複数のロボットハンドにまたがる異なる把持は、共有潜在空間に符号化される。
各潜在ベクトルは、2つの3d形状の符号付き距離関数の観点で把持ポーズで物体の3d形状とロボットハンドの3d形状に復号するように学習される。
さらに,ロボットハンド間のグリップ間の類似性を保持するために,潜伏空間内の距離測定値が学習され,ロボットハンドの接触領域に応じてグリップの類似性を定義する。
この特性により,人間の手を含む異なるグリッパー間で把持を伝達でき,把持移動はロボット間で把持スキルを共有し,ロボットが人間から把持スキルを学習できる可能性がある。
さらに,対象物の符号付き距離関数と暗黙的表現における把持関数は,部分点雲からの接触最適化による6次元物体ポーズ推定に利用可能であり,実世界でロボットによる把持が可能となる。
関連論文リスト
- Robot See Robot Do: Imitating Articulated Object Manipulation with Monocular 4D Reconstruction [51.49400490437258]
本研究は,1つの単分子RGB人間の実演から音声による物体操作を模倣する手法を開発した。
まず,モノクロ映像から3次元部分運動を復元する4次元微分可能部品モデル(4D-DPM)を提案する。
この4D再構成を前提として、ロボットは物体の軌道を再現し、両腕の動きを計画し、実証された物体部分の動きを誘導する。
両用するYuMiロボットを用いて,4D-DPMの3D追跡精度を実写3D部分軌跡に基づいて評価し,9つのオブジェクトに対してRSRDの物理的実行性能を評価した。
論文 参考訳(メタデータ) (2024-09-26T17:57:16Z) - 3D Foundation Models Enable Simultaneous Geometry and Pose Estimation of Grasped Objects [13.58353565350936]
本研究では,ロボットが把握した物体の形状と姿勢を共同で推定する手法を提案する。
提案手法は,推定幾何をロボットの座標フレームに変換する。
我々は,実世界の多様な物体の集合を保持するロボットマニピュレータに対する我々のアプローチを実証的に評価した。
論文 参考訳(メタデータ) (2024-07-14T21:02:55Z) - SUGAR: Pre-training 3D Visual Representations for Robotics [85.55534363501131]
ロボット工学のための新しい3D事前学習フレームワークSUGARを紹介した。
SUGARは3次元の点雲を通してオブジェクトの意味的、幾何学的、および余分な特性をキャプチャする。
SuGARの3D表現は最先端の2Dおよび3D表現よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-04-01T21:23:03Z) - Exploring 3D Human Pose Estimation and Forecasting from the Robot's Perspective: The HARPER Dataset [52.22758311559]
本研究では,ユーザとスポット間のダイアドインタラクションにおける3次元ポーズ推定と予測のための新しいデータセットであるHARPERを紹介する。
キーノーベルティは、ロボットの視点、すなわちロボットのセンサーが捉えたデータに焦点を当てることである。
HARPERの基盤となるシナリオには15のアクションが含まれており、そのうち10つはロボットとユーザの間の物理的接触を含んでいる。
論文 参考訳(メタデータ) (2024-03-21T14:53:50Z) - Social-Transmotion: Promptable Human Trajectory Prediction [65.80068316170613]
Social-Transmotionは、多種多様な視覚的手がかりを利用して人間の行動を予測する、汎用トランスフォーマーベースのモデルである。
提案手法は,JTA,JRDB,歩行者,道路交通のサイクリスト,ETH-UCYなど,複数のデータセットで検証されている。
論文 参考訳(メタデータ) (2023-12-26T18:56:49Z) - DexArt: Benchmarking Generalizable Dexterous Manipulation with
Articulated Objects [8.195608430584073]
物理シミュレーターにおけるArticulated ObjectによるDexterous操作を含むDexArtという新しいベンチマークを提案する。
本研究の主目的は,未確認対象に対する学習方針の一般化性を評価することである。
一般化を実現するために3次元表現学習を用いた強化学習を用いる。
論文 参考訳(メタデータ) (2023-05-09T18:30:58Z) - Learning 6-DoF Fine-grained Grasp Detection Based on Part Affordance Grounding [42.04502185508723]
本稿では,3次元部分レベルの可読性と把握能力学習を促進するために,言語誘導型SHape grAsPingデータを提案する。
ロボット認知の観点から、我々は2段階のきめ細かいロボット把握フレームワーク(LangPartGPD)を設計する。
我々の手法は、人間とロボットの協調と大規模言語モデル(LLM)の利点を組み合わせたものである。
提案手法は,3次元形状のきめ細かな接地,オブジェクトの空き度推定,および3次元部分認識把握タスクにおいて,競争性能を達成できることを示す。
論文 参考訳(メタデータ) (2023-01-27T07:00:54Z) - Learning Reward Functions for Robotic Manipulation by Observing Humans [92.30657414416527]
我々は、ロボット操作ポリシーのタスク非依存報酬関数を学習するために、幅広い操作タスクを解く人間のラベル付きビデオを使用する。
学習された報酬は、タイムコントラストの目的を用いて学習した埋め込み空間におけるゴールまでの距離に基づいている。
論文 参考訳(メタデータ) (2022-11-16T16:26:48Z) - DexTransfer: Real World Multi-fingered Dexterous Grasping with Minimal
Human Demonstrations [51.87067543670535]
本研究では,少数の人間によるデモンストレーションを行い,見えない物体のポーズを学習するロボット学習システムを提案する。
我々は,物体の点群を入力として捉え,物体を異なる初期ロボット状態から把握するための連続的な動作を予測する,厳密な把握ポリシーを訓練する。
我々のデータセットから学んだポリシーは、シミュレーションと現実世界の両方で見えないオブジェクトのポーズをうまく一般化することができる。
論文 参考訳(メタデータ) (2022-09-28T17:51:49Z) - Grasping Field: Learning Implicit Representations for Human Grasps [16.841780141055505]
本稿では,深層ニューラルネットワークと統合し易い人間の把握モデリングのための表現表現を提案する。
この3Dから2DマッピングをGrasping Fieldと呼び、ディープニューラルネットワークでパラメータ化し、データから学習します。
我々の生成モデルは、3Dオブジェクトポイント・クラウドにのみ適用され、高品質な人間のグリップを合成することができる。
論文 参考訳(メタデータ) (2020-08-10T23:08:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。