論文の概要: DexPoint: Generalizable Point Cloud Reinforcement Learning for
Sim-to-Real Dexterous Manipulation
- arxiv url: http://arxiv.org/abs/2211.09423v1
- Date: Thu, 17 Nov 2022 09:17:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-18 15:53:51.487752
- Title: DexPoint: Generalizable Point Cloud Reinforcement Learning for
Sim-to-Real Dexterous Manipulation
- Title(参考訳): DexPoint: Sim-to-Real Dexterous Manipulationのための一般化可能なポイントクラウド強化学習
- Authors: Yuzhe Qin, Binghao Huang, Zhao-Heng Yin, Hao Su, Xiaolong Wang
- Abstract要約: 実世界の同じカテゴリの新たなオブジェクトに一般化できるデクスタラスな操作のためのフレームワークを提案する。
本稿では,複数物体に対する共同学習とシム・トゥ・リアルな一般化を実現するための2つの新しい手法を提案する。
これは、厳密な手でそのような一般化結果を達成する最初のポリシー学習ベースのフレームワークである。
- 参考スコア(独自算出の注目度): 21.778249067441433
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a sim-to-real framework for dexterous manipulation which can
generalize to new objects of the same category in the real world. The key of
our framework is to train the manipulation policy with point cloud inputs and
dexterous hands. We propose two new techniques to enable joint learning on
multiple objects and sim-to-real generalization: (i) using imagined hand point
clouds as augmented inputs; and (ii) designing novel contact-based rewards. We
empirically evaluate our method using an Allegro Hand to grasp novel objects in
both simulation and real world. To the best of our knowledge, this is the first
policy learning-based framework that achieves such generalization results with
dexterous hands. Our project page is available at
https://yzqin.github.io/dexpoint
- Abstract(参考訳): 実世界において同一のカテゴリの新しいオブジェクトに一般化できるデクスタース操作のためのsim-to-realフレームワークを提案する。
私たちのフレームワークの鍵は、ポイントクラウド入力と巧妙な手による操作ポリシーのトレーニングです。
複数物体の連立学習とシム・トゥ・リアルの一般化を実現するための2つの新しい手法を提案する。
(i)想像上の手指の雲を追加入力として用いること。
(二 新規接触報酬を設計すること。)
本手法はシミュレーションと実世界の両方において新しい物体を把握できるアレグロハンドを用いて実験的に評価する。
我々の知る限りでは、このような一般化結果を巧妙な手で達成する最初のポリシー学習ベースのフレームワークである。
私たちのプロジェクトページはhttps://yzqin.github.io/dexpointで閲覧できます。
関連論文リスト
- Lessons from Learning to Spin "Pens" [51.9182692233916]
本研究では,ペンのような物体を回転させる能力を示すことによって,学習に基づく手動操作システムの境界を推し進める。
まず、強化学習を用いて、特権情報でオラクルポリシーを訓練し、シミュレーションにおいて高忠実度軌道データセットを生成する。
次に、これらの実世界の軌道を用いて感覚運動のポリシーを微調整し、実世界の力学に適応させる。
論文 参考訳(メタデータ) (2024-07-26T17:56:01Z) - Learning to Manipulate Anywhere: A Visual Generalizable Framework For Reinforcement Learning [21.944363082061333]
視覚強化学習に適した一般化可能なフレームワークであるtextbfManiwhereを提案する。
実験の結果,Maniwhereは既存の最先端手法を著しく上回っていることがわかった。
論文 参考訳(メタデータ) (2024-07-22T17:29:02Z) - Grasp Anything: Combining Teacher-Augmented Policy Gradient Learning with Instance Segmentation to Grasp Arbitrary Objects [18.342569823885864]
TAPG(Teacher-Augmented Policy Gradient)は、強化学習と政策蒸留を統括する新しい2段階学習フレームワークである。
TAPGは、オブジェクトセグメンテーションに基づいて、誘導的かつ適応的でありながら、センセータポリシーの学習を促進する。
トレーニングされたポリシーは、シミュレーションにおける散らかったシナリオや、人間の理解可能なプロンプトに基づいて現実世界から、多種多様なオブジェクトを順応的に把握する。
論文 参考訳(メタデータ) (2024-03-15T10:48:16Z) - DeXtreme: Transfer of Agile In-hand Manipulation from Simulation to
Reality [64.51295032956118]
我々は人型ロボットの手で頑健な操作を行える政策を訓練する。
本研究は,各種ハードウェアおよびシミュレータのデクスタラス操作におけるsim-to-real転送の可能性を再確認する。
論文 参考訳(メタデータ) (2022-10-25T01:51:36Z) - Learning Generalizable Dexterous Manipulation from Human Grasp
Affordance [11.060931225148936]
マルチフィンガーハンドによる有害な操作は、ロボット工学における最も難しい問題の1つだ。
模倣学習の最近の進歩は、強化学習と比較してサンプル効率を大幅に改善した。
本稿では,様々な3Dオブジェクトをカテゴリ内に配置した大規模実演を用いて,デクスタラスな操作を学習することを提案する。
論文 参考訳(メタデータ) (2022-04-05T16:26:22Z) - A Differentiable Recipe for Learning Visual Non-Prehensile Planar
Manipulation [63.1610540170754]
視覚的非包括的平面操作の問題に焦点をあてる。
本稿では,ビデオデコードニューラルモデルと接触力学の先行情報を組み合わせた新しいアーキテクチャを提案する。
モジュラーで完全に差別化可能なアーキテクチャは、目に見えないオブジェクトやモーションの学習専用手法よりも優れていることが分かりました。
論文 参考訳(メタデータ) (2021-11-09T18:39:45Z) - Generalization in Dexterous Manipulation via Geometry-Aware Multi-Task
Learning [108.08083976908195]
既存の強化学習アルゴリズムで学習したポリシーは、実際は一般化可能であることを示す。
本稿では,100以上の幾何学的に異なる実世界のオブジェクトを,単一のジェネラリストポリシーで手動操作できることを示す。
興味深いことに、オブジェクトポイントクラウド表現によるマルチタスク学習は、より一般化するだけでなく、シングルオブジェクトのスペシャリストポリシーよりも優れています。
論文 参考訳(メタデータ) (2021-11-04T17:59:56Z) - A System for General In-Hand Object Re-Orientation [23.538271727475525]
対象物を上向きと下向きの両方で並べ替えることを学ぶことができるモデルフリーフレームワークを提案する。
どちらの場合も2000以上の幾何学的に異なる物体を並べ替える能力を示す。
論文 参考訳(メタデータ) (2021-11-04T17:47:39Z) - Where2Act: From Pixels to Actions for Articulated 3D Objects [54.19638599501286]
可動部を有する関節物体の押出しや引抜き等の基本動作に関連する高度に局所化された動作可能な情報を抽出する。
シミュレーションでネットワークをトレーニングできるオンラインデータサンプリング戦略を備えた学習から対話までのフレームワークを提案します。
私たちの学習モデルは、現実世界のデータにも転送します。
論文 参考訳(メタデータ) (2021-01-07T18:56:38Z) - Learning Dexterous Grasping with Object-Centric Visual Affordances [86.49357517864937]
控えめなロボットハンドは、機敏さと人間のような形態をアピールしています。
本稿では,厳密な把握を学習するためのアプローチを提案する。
私たちのキーとなるアイデアは、オブジェクト中心の視覚的余裕モデルを深い強化学習ループに埋め込むことです。
論文 参考訳(メタデータ) (2020-09-03T04:00:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。