論文の概要: NeuralGrasps: Learning Implicit Representations for Grasps of Multiple
Robotic Hands
- arxiv url: http://arxiv.org/abs/2207.02959v1
- Date: Wed, 6 Jul 2022 20:33:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-16 11:14:00.379634
- Title: NeuralGrasps: Learning Implicit Representations for Grasps of Multiple
Robotic Hands
- Title(参考訳): Neural Grasps: 複数のロボットハンドのグラフを学習する
- Authors: Ninad Khargonkar, Neil Song, Zesheng Xu, Balakrishnan Prabhakaran, Yu
Xiang
- Abstract要約: 複数のロボットハンドから物体をつかむ神経暗黙表現を導入する。
複数のロボットハンドにまたがる異なるグリップは、共有潜在空間に符号化される。
グリップトランスファーは、ロボット間で把握スキルを共有し、ロボットが人間から把握スキルを学習できるようにする可能性がある。
- 参考スコア(独自算出の注目度): 15.520158510964757
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce a neural implicit representation for grasps of objects from
multiple robotic hands. Different grasps across multiple robotic hands are
encoded into a shared latent space. Each latent vector is learned to decode to
the 3D shape of an object and the 3D shape of a robotic hand in a grasping pose
in terms of the signed distance functions of the two 3D shapes. In addition,
the distance metric in the latent space is learned to preserve the similarity
between grasps across different robotic hands, where the similarity of grasps
is defined according to contact regions of the robotic hands. This property
enables our method to transfer grasps between different grippers including a
human hand, and grasp transfer has the potential to share grasping skills
between robots and enable robots to learn grasping skills from humans.
Furthermore, the encoded signed distance functions of objects and grasps in our
implicit representation can be used for 6D object pose estimation with grasping
contact optimization from partial point clouds, which enables robotic grasping
in the real world.
- Abstract(参考訳): 複数のロボットハンドから物体を把握するための暗黙表現を導入する。
複数のロボットハンドにまたがる異なる把持は、共有潜在空間に符号化される。
各潜在ベクトルは、2つの3d形状の符号付き距離関数の観点で把持ポーズで物体の3d形状とロボットハンドの3d形状に復号するように学習される。
さらに,ロボットハンド間のグリップ間の類似性を保持するために,潜伏空間内の距離測定値が学習され,ロボットハンドの接触領域に応じてグリップの類似性を定義する。
この特性により,人間の手を含む異なるグリッパー間で把持を伝達でき,把持移動はロボット間で把持スキルを共有し,ロボットが人間から把持スキルを学習できる可能性がある。
さらに,対象物の符号付き距離関数と暗黙的表現における把持関数は,部分点雲からの接触最適化による6次元物体ポーズ推定に利用可能であり,実世界でロボットによる把持が可能となる。
関連論文リスト
- ImitationNet: Unsupervised Human-to-Robot Motion Retargeting via Shared
Latent Space [11.021217430606042]
本稿では,ロボットの動きに対する新しいディープラーニング手法を提案する。
本手法では,新しいロボットへの翻訳を容易にする,人間とロボットのペアデータを必要としない。
我々のモデルは、効率と精度の観点から、人間とロボットの類似性に関する既存の研究よりも優れています。
論文 参考訳(メタデータ) (2023-09-11T08:55:04Z) - Robot Learning with Sensorimotor Pre-training [98.7755895548928]
ロボット工学のための自己教師型感覚運動器事前学習手法を提案する。
我々のモデルはRTTと呼ばれ、センサモレータトークンのシーケンスで動作するトランスフォーマーである。
感覚運動の事前学習は、ゼロからトレーニングを一貫して上回り、優れたスケーリング特性を持ち、さまざまなタスク、環境、ロボット間での移動を可能にしている。
論文 参考訳(メタデータ) (2023-06-16T17:58:10Z) - DexArt: Benchmarking Generalizable Dexterous Manipulation with
Articulated Objects [8.195608430584073]
物理シミュレーターにおけるArticulated ObjectによるDexterous操作を含むDexArtという新しいベンチマークを提案する。
本研究の主目的は,未確認対象に対する学習方針の一般化性を評価することである。
一般化を実現するために3次元表現学習を用いた強化学習を用いる。
論文 参考訳(メタデータ) (2023-05-09T18:30:58Z) - Image-based Pose Estimation and Shape Reconstruction for Robot
Manipulators and Soft, Continuum Robots via Differentiable Rendering [20.62295718847247]
自律システムは3D世界における動きを捉えローカライズするためにセンサーに依存しているため、計測データからの状態推定はロボットアプリケーションにとって極めて重要である。
本研究では,カメラ画像から画像に基づくロボットのポーズ推定と形状再構成を実現する。
柔らかい連続ロボットの形状再構成において,幾何学的形状プリミティブを用いる手法が高精度であり,ロボットマニピュレータの姿勢推定が可能であることを実証した。
論文 参考訳(メタデータ) (2023-02-27T18:51:29Z) - Learning Reward Functions for Robotic Manipulation by Observing Humans [92.30657414416527]
我々は、ロボット操作ポリシーのタスク非依存報酬関数を学習するために、幅広い操作タスクを解く人間のラベル付きビデオを使用する。
学習された報酬は、タイムコントラストの目的を用いて学習した埋め込み空間におけるゴールまでの距離に基づいている。
論文 参考訳(メタデータ) (2022-11-16T16:26:48Z) - DexTransfer: Real World Multi-fingered Dexterous Grasping with Minimal
Human Demonstrations [51.87067543670535]
本研究では,少数の人間によるデモンストレーションを行い,見えない物体のポーズを学習するロボット学習システムを提案する。
我々は,物体の点群を入力として捉え,物体を異なる初期ロボット状態から把握するための連続的な動作を予測する,厳密な把握ポリシーを訓練する。
我々のデータセットから学んだポリシーは、シミュレーションと現実世界の両方で見えないオブジェクトのポーズをうまく一般化することができる。
論文 参考訳(メタデータ) (2022-09-28T17:51:49Z) - Neural Novel Actor: Learning a Generalized Animatable Neural
Representation for Human Actors [98.24047528960406]
本稿では,複数の人物の多視点画像のスパース集合から,汎用的アニマタブルなニューラル表現を学習するための新しい手法を提案する。
学習された表現は、カメラのスパースセットから任意の人の新しいビューイメージを合成し、さらにユーザのポーズ制御でアニメーション化することができる。
論文 参考訳(メタデータ) (2022-08-25T07:36:46Z) - From One Hand to Multiple Hands: Imitation Learning for Dexterous
Manipulation from Single-Camera Teleoperation [26.738893736520364]
我々は,iPadとコンピュータのみで3Dデモを効率的に収集する,新しい単一カメラ遠隔操作システムを提案する。
我々は,操作者の手の構造と形状が同じであるマニピュレータである物理シミュレータにおいて,各ユーザ向けにカスタマイズされたロボットハンドを構築する。
データを用いた模倣学習では、複数の複雑な操作タスクでベースラインを大幅に改善する。
論文 参考訳(メタデータ) (2022-04-26T17:59:51Z) - Where is my hand? Deep hand segmentation for visual self-recognition in
humanoid robots [129.46920552019247]
本稿では、画像からロボットの手を切り離すための畳み込みニューラルネットワーク(CNN)を提案する。
ヒューマノイドロボットVizzyの手のセグメンテーションのために,Mask-RCNNネットワークを微調整した。
論文 参考訳(メタデータ) (2021-02-09T10:34:32Z) - Grasping Field: Learning Implicit Representations for Human Grasps [16.841780141055505]
本稿では,深層ニューラルネットワークと統合し易い人間の把握モデリングのための表現表現を提案する。
この3Dから2DマッピングをGrasping Fieldと呼び、ディープニューラルネットワークでパラメータ化し、データから学習します。
我々の生成モデルは、3Dオブジェクトポイント・クラウドにのみ適用され、高品質な人間のグリップを合成することができる。
論文 参考訳(メタデータ) (2020-08-10T23:08:26Z) - Human Grasp Classification for Reactive Human-to-Robot Handovers [50.91803283297065]
本稿では,ロボットが人間に遭遇するロボットのハンドオーバに対するアプローチを提案する。
対象物をさまざまな手形やポーズで保持する典型的な方法をカバーする,人間の把握データセットを収集する。
本稿では,検出した把握位置と手の位置に応じて人手から対象物を取り出す計画実行手法を提案する。
論文 参考訳(メタデータ) (2020-03-12T19:58:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。