論文の概要: LEAP Hand: Low-Cost, Efficient, and Anthropomorphic Hand for Robot
Learning
- arxiv url: http://arxiv.org/abs/2309.06440v1
- Date: Tue, 12 Sep 2023 17:59:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-13 11:53:11.914217
- Title: LEAP Hand: Low-Cost, Efficient, and Anthropomorphic Hand for Robot
Learning
- Title(参考訳): LEAPハンド:ロボット学習のための低コスト、効率的、人型ハンド
- Authors: Kenneth Shaw, Ananye Agarwal, Deepak Pathak
- Abstract要約: 機械学習研究のための低コストで人為的な手であるLEAP Handについて述べる。
従来の手とは対照的に、LEAP Handは指のポーズに関係なく最大デキスタリティを許容する新しいキネマティック構造を持つ。
LEAP Handは実世界における操作作業に利用できることを示す。
- 参考スコア(独自算出の注目度): 42.071970090044594
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Dexterous manipulation has been a long-standing challenge in robotics. While
machine learning techniques have shown some promise, results have largely been
currently limited to simulation. This can be mostly attributed to the lack of
suitable hardware. In this paper, we present LEAP Hand, a low-cost dexterous
and anthropomorphic hand for machine learning research. In contrast to previous
hands, LEAP Hand has a novel kinematic structure that allows maximal dexterity
regardless of finger pose. LEAP Hand is low-cost and can be assembled in 4
hours at a cost of 2000 USD from readily available parts. It is capable of
consistently exerting large torques over long durations of time. We show that
LEAP Hand can be used to perform several manipulation tasks in the real world
-- from visual teleoperation to learning from passive video data and sim2real.
LEAP Hand significantly outperforms its closest competitor Allegro Hand in all
our experiments while being 1/8th of the cost. We release detailed assembly
instructions, the Sim2Real pipeline and a development platform with useful APIs
on our website at https://leap-hand.github.io/
- Abstract(参考訳): 高度な操作はロボティクスにおいて長年の課題だった。
機械学習技術は将来性を示しているが、その結果はシミュレーションに限られている。
これは主に、適切なハードウェアが不足しているためである。
本稿では,機械学習研究のための低コストで人為的な手であるLEAP Handについて述べる。
従来の手とは対照的に、LEAP Handは指のポーズに関係なく最大デキスタリティを許容する新しいキネマティック構造を持つ。
LEAP Handは低コストで4時間で組み立てることができる。
長時間にわたって大きなトルクを連続的に発揮することができる。
LEAP Handは、視覚的遠隔操作から受動的ビデオデータからの学習、sim2realに至るまで、現実世界でいくつかの操作タスクを実行するために使用できることを示す。
LEAP Handは、我々のすべての実験において、最も近いライバルであるAllegro Handをはるかに上回り、コストの1/8である。
詳細なアセンブリ命令、Sim2Realパイプライン、Webサイト(https://leap-hand.github.io/)で有用なAPIを備えた開発プラットフォームをリリースしています。
関連論文リスト
- Bimanual Dexterity for Complex Tasks [31.48400934879981]
極端にデキスタラスで低コストで,低レイテンシで,ポータブルな両用デキスタラス遠隔操作システムであるBidexを紹介した。
より複雑なタスクのために、より高速な速度で、より良い品質データを生成するために、Bidexを見つけます。
Bidexは、モバイルのバイマニュアルロボットを、野生のタスクで操作する。
論文 参考訳(メタデータ) (2024-11-20T19:53:35Z) - Learning Visuotactile Skills with Two Multifingered Hands [80.99370364907278]
マルチフィンガーハンドとバイソタクティブルデータを用いたバイマニアルシステムを用いて,人間の実演からの学習を探索する。
以上の結果から,バイスオタクティブルデータからの両指多指操作における有望な進歩が示唆された。
論文 参考訳(メタデータ) (2024-04-25T17:59:41Z) - RealDex: Towards Human-like Grasping for Robotic Dexterous Hand [64.47045863999061]
本稿では,人間の行動パターンを取り入れた手の動きを正確に把握する先駆的データセットであるRealDexを紹介する。
RealDexは、現実のシナリオにおける認識、認識、操作を自動化するためのヒューマノイドロボットを進化させる上で、大きな可能性を秘めている。
論文 参考訳(メタデータ) (2024-02-21T14:59:46Z) - Giving Robots a Hand: Learning Generalizable Manipulation with
Eye-in-Hand Human Video Demonstrations [66.47064743686953]
眼内カメラは、視覚に基づくロボット操作において、より優れたサンプル効率と一般化を可能にすることを約束している。
一方、人間がタスクを行うビデオは、ロボット遠隔操作の専門知識を欠いているため、収集コストがずっと安い。
本研究では,広範にラベルのない人間ビデオによるロボット模倣データセットを拡張し,眼球運動ポリシーの一般化を大幅に促進する。
論文 参考訳(メタデータ) (2023-07-12T07:04:53Z) - Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware [132.39281056124312]
ケーブル接続のスレッディングやバッテリーのスロットングといった細かい操作は、ロボットにとって非常に難しい。
本稿では,実演からエンド・ツー・エンドの模倣学習を行う低コストシステムを提案する。
本研究では, 動作系列の生成モデルを学習する, 単純だが斬新なアルゴリズムであるAction Chunking with Transformersを開発した。
論文 参考訳(メタデータ) (2023-04-23T19:10:53Z) - From One Hand to Multiple Hands: Imitation Learning for Dexterous
Manipulation from Single-Camera Teleoperation [26.738893736520364]
我々は,iPadとコンピュータのみで3Dデモを効率的に収集する,新しい単一カメラ遠隔操作システムを提案する。
我々は,操作者の手の構造と形状が同じであるマニピュレータである物理シミュレータにおいて,各ユーザ向けにカスタマイズされたロボットハンドを構築する。
データを用いた模倣学習では、複数の複雑な操作タスクでベースラインを大幅に改善する。
論文 参考訳(メタデータ) (2022-04-26T17:59:51Z) - DexVIP: Learning Dexterous Grasping with Human Hand Pose Priors from
Video [86.49357517864937]
DexVIPは,人間と物体のインタラクションビデオから,器用なロボットの把握を学習する手法である。
我々は、人間とオブジェクトのインタラクションビデオから把握した画像をキュレートし、エージェントの手のポーズに先行する。
DexVIPは、手ポーズの無い既存のアプローチや、特殊な遠隔操作機器に頼っている既存のアプローチと良好に比較できることを実証する。
論文 参考訳(メタデータ) (2022-02-01T00:45:57Z) - DexMV: Imitation Learning for Dexterous Manipulation from Human Videos [11.470141313103465]
本稿では,コンピュータビジョンとロボット学習のギャップを埋めるために,新しいプラットフォームとパイプラインであるDexMVを提案する。
i)多指ロボットハンドによる複雑な操作タスクのシミュレーションシステムと,(ii)人間の手による大規模な実演を記録するコンピュータビジョンシステムとを設計する。
実演ではロボット学習を大きなマージンで改善することができ、強化学習だけでは解決できない複雑なタスクを解決できることが示される。
論文 参考訳(メタデータ) (2021-08-12T17:51:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。