論文の概要: A System for General In-Hand Object Re-Orientation
- arxiv url: http://arxiv.org/abs/2111.03043v1
- Date: Thu, 4 Nov 2021 17:47:39 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-05 14:47:08.142901
- Title: A System for General In-Hand Object Re-Orientation
- Title(参考訳): 一般のハンド・オブジェクト・リオリエンテーションシステム
- Authors: Tao Chen, Jie Xu, Pulkit Agrawal
- Abstract要約: 対象物を上向きと下向きの両方で並べ替えることを学ぶことができるモデルフリーフレームワークを提案する。
どちらの場合も2000以上の幾何学的に異なる物体を並べ替える能力を示す。
- 参考スコア(独自算出の注目度): 23.538271727475525
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In-hand object reorientation has been a challenging problem in robotics due
to high dimensional actuation space and the frequent change in contact state
between the fingers and the objects. We present a simple model-free framework
that can learn to reorient objects with both the hand facing upwards and
downwards. We demonstrate the capability of reorienting over 2000 geometrically
different objects in both cases. The learned policies show strong zero-shot
transfer performance on new objects. We provide evidence that these policies
are amenable to real-world operation by distilling them to use observations
easily available in the real world. The videos of the learned policies are
available at: https://taochenshh.github.io/projects/in-hand-reorientation.
- Abstract(参考訳): 指と物体の接触状態の頻繁な変化と高次元のアクティベーション空間のため,ロボット工学では物体の方向転換が課題となっている。
我々は、手が上向きと下向きの両方でオブジェクトを並べ替えることを学ぶことができるシンプルなモデルフリーフレームワークを提案する。
どちらの場合も2000以上の幾何学的に異なる物体を並べ替える能力を示す。
学習したポリシーは、新しいオブジェクトに対して強いゼロショット転送性能を示す。
これらの政策が実世界で容易に利用可能な観察を蒸留することで実世界の運用に適応できることの証拠を提供する。
学習したポリシーのビデオは以下の通りである。
関連論文リスト
- Lessons from Learning to Spin "Pens" [51.9182692233916]
本研究では,ペンのような物体を回転させる能力を示すことによって,学習に基づく手動操作システムの境界を推し進める。
まず、強化学習を用いて、特権情報でオラクルポリシーを訓練し、シミュレーションにおいて高忠実度軌道データセットを生成する。
次に、これらの実世界の軌道を用いて感覚運動のポリシーを微調整し、実世界の力学に適応させる。
論文 参考訳(メタデータ) (2024-07-26T17:56:01Z) - Grasp Anything: Combining Teacher-Augmented Policy Gradient Learning with Instance Segmentation to Grasp Arbitrary Objects [18.342569823885864]
TAPG(Teacher-Augmented Policy Gradient)は、強化学習と政策蒸留を統括する新しい2段階学習フレームワークである。
TAPGは、オブジェクトセグメンテーションに基づいて、誘導的かつ適応的でありながら、センセータポリシーの学習を促進する。
トレーニングされたポリシーは、シミュレーションにおける散らかったシナリオや、人間の理解可能なプロンプトに基づいて現実世界から、多種多様なオブジェクトを順応的に把握する。
論文 参考訳(メタデータ) (2024-03-15T10:48:16Z) - Learning Generalizable Manipulation Policies with Object-Centric 3D
Representations [65.55352131167213]
GROOTは、オブジェクト中心と3D事前の堅牢なポリシーを学ぶための模倣学習手法である。
ビジョンベースの操作のための初期訓練条件を超えて一般化するポリシーを構築する。
GROOTのパフォーマンスは、バックグラウンドの変更、カメラの視点シフト、新しいオブジェクトインスタンスの存在に関する一般化に優れています。
論文 参考訳(メタデータ) (2023-10-22T18:51:45Z) - Learning Explicit Contact for Implicit Reconstruction of Hand-held
Objects from Monocular Images [59.49985837246644]
我々は,手持ちの物体を暗黙的に再構築する上で,明示的な方法で接触をモデル化する方法を示す。
まず,1つの画像から3次元手オブジェクトの接触を直接推定するサブタスクを提案する。
第2部では,ハンドメッシュ面から近傍の3次元空間へ推定された接触状態を拡散する新しい手法を提案する。
論文 参考訳(メタデータ) (2023-05-31T17:59:26Z) - Visual Dexterity: In-Hand Reorientation of Novel and Complex Object
Shapes [31.05016510558315]
多くの巧妙な操作を行うには、手動でオブジェクトの向きを変える必要がある。
このような仮定を行わない汎用オブジェクトリオリエンテーションコントローラを提案する。
シミュレーションにおいて強化学習を用いて学習し,新しい物体の形状を実世界で評価する。
論文 参考訳(メタデータ) (2022-11-21T18:59:33Z) - Efficient Representations of Object Geometry for Reinforcement Learning
of Interactive Grasping Policies [29.998917158604694]
本稿では,様々な幾何学的に異なる実世界の物体の対話的把握を学習する強化学習フレームワークを提案する。
学習したインタラクティブなポリシーのビデオはhttps://maltemosbach.org/io/geometry_aware_grasping_policiesで公開されている。
論文 参考訳(メタデータ) (2022-11-20T11:47:33Z) - Generalization in Dexterous Manipulation via Geometry-Aware Multi-Task
Learning [108.08083976908195]
既存の強化学習アルゴリズムで学習したポリシーは、実際は一般化可能であることを示す。
本稿では,100以上の幾何学的に異なる実世界のオブジェクトを,単一のジェネラリストポリシーで手動操作できることを示す。
興味深いことに、オブジェクトポイントクラウド表現によるマルチタスク学習は、より一般化するだけでなく、シングルオブジェクトのスペシャリストポリシーよりも優れています。
論文 参考訳(メタデータ) (2021-11-04T17:59:56Z) - Generalization Through Hand-Eye Coordination: An Action Space for
Learning Spatially-Invariant Visuomotor Control [67.23580984118479]
模倣学習(il)は、オフラインデモデータから視覚能力を学ぶための効果的なフレームワークである。
手目行動ネットワーク(HAN)は、人間の遠隔操作による実証から学習することにより、人間の手目協調行動を推定することができる。
論文 参考訳(メタデータ) (2021-02-28T01:49:13Z) - Reactive Human-to-Robot Handovers of Arbitrary Objects [57.845894608577495]
本稿では、未知の物体の人間とロボットのハンドオーバを可能にするビジョンベースシステムを提案する。
提案手法は,クローズドループ運動計画とリアルタイムかつ時間的に一貫性のあるグリップ生成を組み合わせたものである。
提案手法の汎用性,ユーザビリティ,ロバスト性を,26種類の家庭用オブジェクトからなる新しいベンチマークで実証した。
論文 参考訳(メタデータ) (2020-11-17T21:52:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。