論文の概要: A System for General In-Hand Object Re-Orientation
- arxiv url: http://arxiv.org/abs/2111.03043v1
- Date: Thu, 4 Nov 2021 17:47:39 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-05 14:47:08.142901
- Title: A System for General In-Hand Object Re-Orientation
- Title(参考訳): 一般のハンド・オブジェクト・リオリエンテーションシステム
- Authors: Tao Chen, Jie Xu, Pulkit Agrawal
- Abstract要約: 対象物を上向きと下向きの両方で並べ替えることを学ぶことができるモデルフリーフレームワークを提案する。
どちらの場合も2000以上の幾何学的に異なる物体を並べ替える能力を示す。
- 参考スコア(独自算出の注目度): 23.538271727475525
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In-hand object reorientation has been a challenging problem in robotics due
to high dimensional actuation space and the frequent change in contact state
between the fingers and the objects. We present a simple model-free framework
that can learn to reorient objects with both the hand facing upwards and
downwards. We demonstrate the capability of reorienting over 2000 geometrically
different objects in both cases. The learned policies show strong zero-shot
transfer performance on new objects. We provide evidence that these policies
are amenable to real-world operation by distilling them to use observations
easily available in the real world. The videos of the learned policies are
available at: https://taochenshh.github.io/projects/in-hand-reorientation.
- Abstract(参考訳): 指と物体の接触状態の頻繁な変化と高次元のアクティベーション空間のため,ロボット工学では物体の方向転換が課題となっている。
我々は、手が上向きと下向きの両方でオブジェクトを並べ替えることを学ぶことができるシンプルなモデルフリーフレームワークを提案する。
どちらの場合も2000以上の幾何学的に異なる物体を並べ替える能力を示す。
学習したポリシーは、新しいオブジェクトに対して強いゼロショット転送性能を示す。
これらの政策が実世界で容易に利用可能な観察を蒸留することで実世界の運用に適応できることの証拠を提供する。
学習したポリシーのビデオは以下の通りである。
関連論文リスト
- Learning Generalizable Manipulation Policies with Object-Centric 3D
Representations [65.55352131167213]
GROOTは、オブジェクト中心と3D事前の堅牢なポリシーを学ぶための模倣学習手法である。
ビジョンベースの操作のための初期訓練条件を超えて一般化するポリシーを構築する。
GROOTのパフォーマンスは、バックグラウンドの変更、カメラの視点シフト、新しいオブジェクトインスタンスの存在に関する一般化に優れています。
論文 参考訳(メタデータ) (2023-10-22T18:51:45Z) - Learning Explicit Contact for Implicit Reconstruction of Hand-held
Objects from Monocular Images [59.49985837246644]
我々は,手持ちの物体を暗黙的に再構築する上で,明示的な方法で接触をモデル化する方法を示す。
まず,1つの画像から3次元手オブジェクトの接触を直接推定するサブタスクを提案する。
第2部では,ハンドメッシュ面から近傍の3次元空間へ推定された接触状態を拡散する新しい手法を提案する。
論文 参考訳(メタデータ) (2023-05-31T17:59:26Z) - Visual Dexterity: In-Hand Reorientation of Novel and Complex Object
Shapes [31.05016510558315]
多くの巧妙な操作を行うには、手動でオブジェクトの向きを変える必要がある。
このような仮定を行わない汎用オブジェクトリオリエンテーションコントローラを提案する。
シミュレーションにおいて強化学習を用いて学習し,新しい物体の形状を実世界で評価する。
論文 参考訳(メタデータ) (2022-11-21T18:59:33Z) - Efficient Representations of Object Geometry for Reinforcement Learning
of Interactive Grasping Policies [29.998917158604694]
本稿では,様々な幾何学的に異なる実世界の物体の対話的把握を学習する強化学習フレームワークを提案する。
学習したインタラクティブなポリシーのビデオはhttps://maltemosbach.org/io/geometry_aware_grasping_policiesで公開されている。
論文 参考訳(メタデータ) (2022-11-20T11:47:33Z) - Generalization in Dexterous Manipulation via Geometry-Aware Multi-Task
Learning [108.08083976908195]
既存の強化学習アルゴリズムで学習したポリシーは、実際は一般化可能であることを示す。
本稿では,100以上の幾何学的に異なる実世界のオブジェクトを,単一のジェネラリストポリシーで手動操作できることを示す。
興味深いことに、オブジェクトポイントクラウド表現によるマルチタスク学習は、より一般化するだけでなく、シングルオブジェクトのスペシャリストポリシーよりも優れています。
論文 参考訳(メタデータ) (2021-11-04T17:59:56Z) - Simultaneous Multi-View Object Recognition and Grasping in Open-Ended
Domains [0.0]
オープンなオブジェクト認識と把握を同時に行うために,メモリ容量を増強したディープラーニングアーキテクチャを提案する。
シミュレーションと実世界設定の両方において,本手法が未確認のオブジェクトを把握し,現場でのごくわずかな例を用いて,新たなオブジェクトカテゴリを迅速に学習できることを実証する。
論文 参考訳(メタデータ) (2021-06-03T14:12:11Z) - Generalization Through Hand-Eye Coordination: An Action Space for
Learning Spatially-Invariant Visuomotor Control [67.23580984118479]
模倣学習(il)は、オフラインデモデータから視覚能力を学ぶための効果的なフレームワークである。
手目行動ネットワーク(HAN)は、人間の遠隔操作による実証から学習することにより、人間の手目協調行動を推定することができる。
論文 参考訳(メタデータ) (2021-02-28T01:49:13Z) - Reactive Human-to-Robot Handovers of Arbitrary Objects [57.845894608577495]
本稿では、未知の物体の人間とロボットのハンドオーバを可能にするビジョンベースシステムを提案する。
提案手法は,クローズドループ運動計画とリアルタイムかつ時間的に一貫性のあるグリップ生成を組み合わせたものである。
提案手法の汎用性,ユーザビリティ,ロバスト性を,26種類の家庭用オブジェクトからなる新しいベンチマークで実証した。
論文 参考訳(メタデータ) (2020-11-17T21:52:22Z) - Learning Dexterous Grasping with Object-Centric Visual Affordances [86.49357517864937]
控えめなロボットハンドは、機敏さと人間のような形態をアピールしています。
本稿では,厳密な把握を学習するためのアプローチを提案する。
私たちのキーとなるアイデアは、オブジェクト中心の視覚的余裕モデルを深い強化学習ループに埋め込むことです。
論文 参考訳(メタデータ) (2020-09-03T04:00:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。