論文の概要: Learning Fabric Manipulation in the Real World with Human Videos
- arxiv url: http://arxiv.org/abs/2211.02832v1
- Date: Sat, 5 Nov 2022 07:09:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-08 18:16:10.084846
- Title: Learning Fabric Manipulation in the Real World with Human Videos
- Title(参考訳): 人間ビデオによる実世界における織物マニピュレーションの学習
- Authors: Robert Lee, Jad Abou-Chakra, Fangyi Zhang, Peter Corke
- Abstract要約: ファブリック操作は、巨大な状態空間と複雑な力学のため、ロボット工学における長年の課題である。
従来の手法のほとんどはシミュレーションに大きく依存しており、依然として変形可能な物体の大きなsim-to-realギャップによって制限されている。
有望な代替手段は、人間がタスクを実行するのを見ることから直接布地操作を学ぶことである。
- 参考スコア(独自算出の注目度): 10.608723220309678
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fabric manipulation is a long-standing challenge in robotics due to the
enormous state space and complex dynamics. Learning approaches stand out as
promising for this domain as they allow us to learn behaviours directly from
data. Most prior methods however rely heavily on simulation, which is still
limited by the large sim-to-real gap of deformable objects or rely on large
datasets. A promising alternative is to learn fabric manipulation directly from
watching humans perform the task. In this work, we explore how demonstrations
for fabric manipulation tasks can be collected directly by human hands,
providing an extremely natural and fast data collection pipeline. Then, using
only a handful of such demonstrations, we show how a sample-efficient
pick-and-place policy can be learned and deployed on a real robot, without any
robot data collection at all. We demonstrate our approach on a fabric folding
task, showing that our policy can reliably reach folded states from crumpled
initial configurations.
- Abstract(参考訳): 布地操作は、巨大な状態空間と複雑なダイナミクスのため、ロボット工学における長年の課題である。
学習アプローチは、データから直接行動を学ぶことができるので、このドメインにとって有望である。
しかし、ほとんどの以前の方法はシミュレーションに大きく依存しており、変形可能なオブジェクトの大きなsim-to-realギャップや、大きなデータセットに依存している。
有望な代替手段は、人間がタスクを実行するのを見て直接布地操作を学ぶことである。
本研究では,ファブリック操作タスクのデモを人手で直接収集し,極めて自然で高速なデータ収集パイプラインを提供する方法について検討する。
そして,このようなデモをほんの少しだけ使って,サンプル効率の良いピック・アンド・プレース・ポリシーを実ロボットに学習し,ロボットのデータ収集をまったく必要とせずに展開する方法を示す。
ファブリック折り畳み作業に対する我々のアプローチを実証し、初期構成から折り畳み状態に確実に到達できることを示します。
関連論文リスト
- Manipulate-Anything: Automating Real-World Robots using Vision-Language Models [47.16659229389889]
実世界のロボット操作のためのスケーラブルな自動生成手法であるManipulate-Anythingを提案する。
Manipulate-Anythingは、特権のある状態情報や手書きのスキルなしで現実世界の環境で動作でき、静的オブジェクトを操作できる。
論文 参考訳(メタデータ) (2024-06-27T06:12:01Z) - Scaling Robot Learning with Semantically Imagined Experience [21.361979238427722]
ロボット学習の最近の進歩は、ロボットが操作タスクを実行できることを約束している。
この進歩に寄与する要因の1つは、モデルのトレーニングに使用されるロボットデータのスケールである。
本稿では,コンピュータビジョンや自然言語処理に広く用いられているテキスト・ツー・イメージ基盤モデルを利用した代替手法を提案する。
論文 参考訳(メタデータ) (2023-02-22T18:47:51Z) - Learning Reward Functions for Robotic Manipulation by Observing Humans [92.30657414416527]
我々は、ロボット操作ポリシーのタスク非依存報酬関数を学習するために、幅広い操作タスクを解く人間のラベル付きビデオを使用する。
学習された報酬は、タイムコントラストの目的を用いて学習した埋め込み空間におけるゴールまでの距離に基づいている。
論文 参考訳(メタデータ) (2022-11-16T16:26:48Z) - DexTransfer: Real World Multi-fingered Dexterous Grasping with Minimal
Human Demonstrations [51.87067543670535]
本研究では,少数の人間によるデモンストレーションを行い,見えない物体のポーズを学習するロボット学習システムを提案する。
我々は,物体の点群を入力として捉え,物体を異なる初期ロボット状態から把握するための連続的な動作を予測する,厳密な把握ポリシーを訓練する。
我々のデータセットから学んだポリシーは、シミュレーションと現実世界の両方で見えないオブジェクトのポーズをうまく一般化することができる。
論文 参考訳(メタデータ) (2022-09-28T17:51:49Z) - Human-to-Robot Imitation in the Wild [50.49660984318492]
本研究では,第三者の視点からの学習を中心に,効率的なワンショットロボット学習アルゴリズムを提案する。
実世界における20種類の操作タスクを含む,ワンショットの一般化と成功を示す。
論文 参考訳(メタデータ) (2022-07-19T17:59:59Z) - What Matters in Learning from Offline Human Demonstrations for Robot
Manipulation [64.43440450794495]
ロボット操作のための6つのオフライン学習アルゴリズムについて広範な研究を行う。
我々の研究は、オフラインの人間のデータから学習する際の最も重要な課題を分析します。
人間のデータセットから学ぶ機会を強調します。
論文 参考訳(メタデータ) (2021-08-06T20:48:30Z) - A Framework for Efficient Robotic Manipulation [79.10407063260473]
単一のロボットアームがピクセルからスパースリワード操作ポリシーを学習できることを示します。
デモは10回しかなく、単一のロボットアームがピクセルからスパースリワード操作のポリシーを学習できることを示しています。
論文 参考訳(メタデータ) (2020-12-14T22:18:39Z) - Learning Object Manipulation Skills via Approximate State Estimation
from Real Videos [47.958512470724926]
人間は、いくつかの指導ビデオを見て、新しいタスクを学ぶことに精通しています。
一方、新しいアクションを学習するロボットは、試行錯誤によって多くの労力を必要とするか、あるいは入手が困難な専門家によるデモを使う必要がある。
本稿では,ビデオから直接オブジェクト操作スキルを学習する手法について検討する。
論文 参考訳(メタデータ) (2020-11-13T08:53:47Z) - Visual Imitation Made Easy [102.36509665008732]
本稿では,ロボットへのデータ転送を容易にしながら,データ収集プロセスを単純化する,模倣のための代替インターフェースを提案する。
我々は、データ収集装置やロボットのエンドエフェクターとして、市販のリーチ・グラブラー補助具を使用する。
我々は,非包括的プッシュと包括的積み重ねという2つの課題について実験的に評価した。
論文 参考訳(メタデータ) (2020-08-11T17:58:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。