論文の概要: Teach a Robot to FISH: Versatile Imitation from One Minute of
Demonstrations
- arxiv url: http://arxiv.org/abs/2303.01497v1
- Date: Thu, 2 Mar 2023 18:57:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-03 12:49:25.822166
- Title: Teach a Robot to FISH: Versatile Imitation from One Minute of
Demonstrations
- Title(参考訳): 魚にロボットを教える:1分間のデモから多彩な模倣
- Authors: Siddhant Haldar, Jyothish Pari, Anant Rai, Lerrel Pinto
- Abstract要約: Fast Imitation of Skills from Humans (FISH)は、人間のデモの1分未満で、堅牢な視覚スキルを学習できる新しい模倣学習アプローチである。
FISHは、ロボットの動作とデモンストレーションの間の"マッチ"に対応する報酬を計算する。
FISHの平均成功率は93%であり、従来の最先端の手法よりも約3.8倍高い。
- 参考スコア(独自算出の注目度): 16.75777362520317
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: While imitation learning provides us with an efficient toolkit to train
robots, learning skills that are robust to environment variations remains a
significant challenge. Current approaches address this challenge by relying
either on large amounts of demonstrations that span environment variations or
on handcrafted reward functions that require state estimates. Both directions
are not scalable to fast imitation. In this work, we present Fast Imitation of
Skills from Humans (FISH), a new imitation learning approach that can learn
robust visual skills with less than a minute of human demonstrations. Given a
weak base-policy trained by offline imitation of demonstrations, FISH computes
rewards that correspond to the "match" between the robot's behavior and the
demonstrations. These rewards are then used to adaptively update a residual
policy that adds on to the base-policy. Across all tasks, FISH requires at most
twenty minutes of interactive learning to imitate demonstrations on object
configurations that were not seen in the demonstrations. Importantly, FISH is
constructed to be versatile, which allows it to be used across robot
morphologies (e.g. xArm, Allegro, Stretch) and camera configurations (e.g.
third-person, eye-in-hand). Our experimental evaluations on 9 different tasks
show that FISH achieves an average success rate of 93%, which is around 3.8x
higher than prior state-of-the-art methods.
- Abstract(参考訳): 模倣学習はロボットを訓練するための効率的なツールキットを提供しますが、環境変化に頑健な学習スキルは依然として大きな課題です。
現在のアプローチでは、環境変動にまたがる大量のデモンストレーションや、状態推定を必要とする手作りの報酬関数に頼ることで、この問題に対処している。
どちらの方向も高速模倣にはスケーラブルではない。
本研究では,人間の実演の1分未満で,堅牢な視覚スキルを学習できる新しい模倣学習手法であるFast Imitation of Skills from Humans(FISH)を提案する。
デモのオフライン模倣によって訓練された弱いベース・ポリシーが与えられると、フィッシュはロボットの行動とデモの「一致」に対応する報酬を計算する。
これらの報酬は、基本政策に追加される残留ポリシーを適応的に更新するために使用される。
すべてのタスクにまたがって、fishはデモで見られなかったオブジェクト構成のデモンストレーションを模倣するために、少なくとも20分間のインタラクティブな学習を必要とします。
重要なことに、FISHは汎用性を持つように設計されており、ロボット形態(xArm、Allegro、Stretchなど)やカメラ構成(三人称、目印など)にまたがって使用することができる。
9つの異なる課題に対する実験評価の結果,魚は平均成功率93%に達し,従来の方法よりも約3.8倍高い値を示した。
関連論文リスト
- VITAL: Visual Teleoperation to Enhance Robot Learning through Human-in-the-Loop Corrections [10.49712834719005]
本稿では,VITAL と呼ばれる双方向操作作業のための低コストな視覚遠隔操作システムを提案する。
われわれのアプローチは、安価なハードウェアとビジュアル処理技術を利用してデモを収集する。
実環境と模擬環境の両方を活用することにより,学習方針の一般化性と堅牢性を高める。
論文 参考訳(メタデータ) (2024-07-30T23:29:47Z) - Offline Imitation Learning Through Graph Search and Retrieval [57.57306578140857]
模倣学習は、ロボットが操作スキルを取得するための強力な機械学習アルゴリズムである。
本稿では,グラフ検索と検索により,最適下実験から学習する,シンプルで効果的なアルゴリズムGSRを提案する。
GSRは、ベースラインに比べて10%から30%高い成功率、30%以上の熟練を達成できる。
論文 参考訳(メタデータ) (2024-07-22T06:12:21Z) - Cross-Domain Transfer via Semantic Skill Imitation [49.83150463391275]
本稿では、例えば人間ビデオなどのソースドメインからのデモンストレーションを利用して、強化学習(RL)を高速化する意味模倣手法を提案する。
関節速度のような低レベルな動作を模倣する代わりに、我々のアプローチは「電子レンジを開く」や「ストーブを回す」といった、実証された意味的なスキルのシーケンスを模倣する。
論文 参考訳(メタデータ) (2022-12-14T18:46:14Z) - Self-Supervised Learning of Multi-Object Keypoints for Robotic
Manipulation [8.939008609565368]
本稿では,下流政策学習におけるDense Cor correspondence pretext Taskによる画像キーポイントの学習の有効性を示す。
我々は,多様なロボット操作タスクに対するアプローチを評価し,他の視覚表現学習手法と比較し,その柔軟性と有効性を示した。
論文 参考訳(メタデータ) (2022-05-17T13:15:07Z) - Bottom-Up Skill Discovery from Unsegmented Demonstrations for
Long-Horizon Robot Manipulation [55.31301153979621]
我々は,実世界の長距離ロボット操作作業に,スキル発見による取り組みを行う。
未解決のデモンストレーションから再利用可能なスキルのライブラリを学ぶためのボトムアップアプローチを提案する。
提案手法は,多段階操作タスクにおける最先端の模倣学習手法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2021-09-28T16:18:54Z) - Playful Interactions for Representation Learning [82.59215739257104]
本稿では,下流タスクの視覚的表現を学習するために,遊び心のあるインタラクションを自己指導的に利用することを提案する。
19の多様な環境で2時間の遊び心のあるデータを収集し、自己予測学習を用いて視覚的表現を抽出する。
我々の表現は、標準的な行動クローニングよりも一般化され、必要なデモの半数しか必要とせず、同様の性能を達成できる。
論文 参考訳(メタデータ) (2021-07-19T17:54:48Z) - Visual Adversarial Imitation Learning using Variational Models [60.69745540036375]
逆関数仕様は、深い強化学習を通しての学習行動にとって大きな障害であり続けている。
望ましい行動の視覚的なデモンストレーションは、エージェントを教えるためのより簡単で自然な方法を示すことが多い。
変動モデルに基づく対向的模倣学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-07-16T00:15:18Z) - Visual Imitation Made Easy [102.36509665008732]
本稿では,ロボットへのデータ転送を容易にしながら,データ収集プロセスを単純化する,模倣のための代替インターフェースを提案する。
我々は、データ収集装置やロボットのエンドエフェクターとして、市販のリーチ・グラブラー補助具を使用する。
我々は,非包括的プッシュと包括的積み重ねという2つの課題について実験的に評価した。
論文 参考訳(メタデータ) (2020-08-11T17:58:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。