論文の概要: WayEx: Waypoint Exploration using a Single Demonstration
- arxiv url: http://arxiv.org/abs/2407.15849v1
- Date: Mon, 22 Jul 2024 17:59:46 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-23 13:41:12.827166
- Title: WayEx: Waypoint Exploration using a Single Demonstration
- Title(参考訳): WayEx: 単一デモによるウェイポイント探索
- Authors: Mara Levy, Nirat Saini, Abhinav Shrivastava,
- Abstract要約: WayExは、複雑な目標条件のロボットタスクを単一のデモから学習する新しい方法だ。
本手法は従来の強化学習法と比較してトレーニング時間を50%短縮する。
- 参考スコア(独自算出の注目度): 39.66098887448078
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose WayEx, a new method for learning complex goal-conditioned robotics tasks from a single demonstration. Our approach distinguishes itself from existing imitation learning methods by demanding fewer expert examples and eliminating the need for information about the actions taken during the demonstration. This is accomplished by introducing a new reward function and employing a knowledge expansion technique. We demonstrate the effectiveness of WayEx, our waypoint exploration strategy, across six diverse tasks, showcasing its applicability in various environments. Notably, our method significantly reduces training time by 50% as compared to traditional reinforcement learning methods. WayEx obtains a higher reward than existing imitation learning methods given only a single demonstration. Furthermore, we demonstrate its success in tackling complex environments where standard approaches fall short. More information is available at: https://waypoint-ex.github.io.
- Abstract(参考訳): 我々は,1つのデモンストレーションから複雑な目標条件ロボットタスクを学習する新しい方法であるWayExを提案する。
提案手法は,従来の模擬学習手法と差別化を図り,実演時の行動に関する情報を不要にする。
これは、新しい報酬関数を導入し、知識拡張技術を採用することで達成される。
多様な6つのタスクにまたがるウェイポイント探索戦略であるWayExの有効性を実証し,その適用性を示す。
特に,本手法は従来の強化学習法と比較してトレーニング時間を50%短縮する。
WayExは、既存の模倣学習手法よりも高い報酬を得る。
さらに、標準アプローチが不足している複雑な環境に対処することに成功したことを実証する。
詳細は、https://waypoint-ex.github.io.comで確認できる。
関連論文リスト
- MILES: Making Imitation Learning Easy with Self-Supervision [12.314942459360605]
MILESは完全に自律的で自己管理型のデータ収集パラダイムである。
MILESは,1つの実演と1つの環境リセットから,効率的なポリシー学習を可能にする。
論文 参考訳(メタデータ) (2024-10-25T17:06:50Z) - Reinforcement learning with Demonstrations from Mismatched Task under
Sparse Reward [7.51772160511614]
強化学習は、現実世界のロボティクス問題において、希少な報酬問題に悩まされることが多い。
先行研究はしばしば、学習エージェントと専門家が同じタスクを達成しようとしていると仮定する。
本稿では,対象タスクと専門家のタスクとが一致しない場合について考察する。
既存のLfD手法では、ミスマッチした新しいタスクにおける学習をスパース報酬で効果的に導くことはできない。
論文 参考訳(メタデータ) (2022-12-03T02:24:59Z) - Learning Multi-Stage Tasks with One Demonstration via Self-Replay [9.34061107793983]
本研究では,1つの人間の実演から日常的な多段階課題を学習するための新しい手法を提案する。
提案手法は, 模擬学習を学習対象の到達段階としてモデル化し, 実証者の動作をオープンループで再現する。
本研究では,日常的なマルチステージタスクを実世界の実験で評価し,本手法が1つの実演から解けることを示す。
論文 参考訳(メタデータ) (2021-11-14T20:57:52Z) - Bottom-Up Skill Discovery from Unsegmented Demonstrations for
Long-Horizon Robot Manipulation [55.31301153979621]
我々は,実世界の長距離ロボット操作作業に,スキル発見による取り組みを行う。
未解決のデモンストレーションから再利用可能なスキルのライブラリを学ぶためのボトムアップアプローチを提案する。
提案手法は,多段階操作タスクにおける最先端の模倣学習手法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2021-09-28T16:18:54Z) - Playful Interactions for Representation Learning [82.59215739257104]
本稿では,下流タスクの視覚的表現を学習するために,遊び心のあるインタラクションを自己指導的に利用することを提案する。
19の多様な環境で2時間の遊び心のあるデータを収集し、自己予測学習を用いて視覚的表現を抽出する。
我々の表現は、標準的な行動クローニングよりも一般化され、必要なデモの半数しか必要とせず、同様の性能を達成できる。
論文 参考訳(メタデータ) (2021-07-19T17:54:48Z) - Learning Object Manipulation Skills via Approximate State Estimation
from Real Videos [47.958512470724926]
人間は、いくつかの指導ビデオを見て、新しいタスクを学ぶことに精通しています。
一方、新しいアクションを学習するロボットは、試行錯誤によって多くの労力を必要とするか、あるいは入手が困難な専門家によるデモを使う必要がある。
本稿では,ビデオから直接オブジェクト操作スキルを学習する手法について検討する。
論文 参考訳(メタデータ) (2020-11-13T08:53:47Z) - Visual Imitation Made Easy [102.36509665008732]
本稿では,ロボットへのデータ転送を容易にしながら,データ収集プロセスを単純化する,模倣のための代替インターフェースを提案する。
我々は、データ収集装置やロボットのエンドエフェクターとして、市販のリーチ・グラブラー補助具を使用する。
我々は,非包括的プッシュと包括的積み重ねという2つの課題について実験的に評価した。
論文 参考訳(メタデータ) (2020-08-11T17:58:50Z) - State-Only Imitation Learning for Dexterous Manipulation [63.03621861920732]
本稿では,国家のみの模倣学習について考察する。
我々は、逆ダイナミクスモデルをトレーニングし、状態のみのデモンストレーションのアクションを予測するためにそれを使用します。
我々の手法は状態-作用アプローチと同等に動作し、RL単独よりもかなり優れています。
論文 参考訳(メタデータ) (2020-04-07T17:57:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。