論文の概要: HERD: Continuous Human-to-Robot Evolution for Learning from Human
Demonstration
- arxiv url: http://arxiv.org/abs/2212.04359v1
- Date: Thu, 8 Dec 2022 15:56:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-09 14:22:04.262872
- Title: HERD: Continuous Human-to-Robot Evolution for Learning from Human
Demonstration
- Title(参考訳): HERD:人間からロボットへの継続的な進化
- Authors: Xingyu Liu, Deepak Pathak, Kris M. Kitani
- Abstract要約: 本研究では,マイクロ進化的強化学習を用いて,操作スキルを人間からロボットに伝達可能であることを示す。
本稿では,ロボットの進化経路とポリシーを協調的に最適化する多次元進化経路探索アルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 57.045140028275036
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The ability to learn from human demonstration endows robots with the ability
to automate various tasks. However, directly learning from human demonstration
is challenging since the structure of the human hand can be very different from
the desired robot gripper. In this work, we show that manipulation skills can
be transferred from a human to a robot through the use of micro-evolutionary
reinforcement learning, where a five-finger human dexterous hand robot
gradually evolves into a commercial robot, while repeated interacting in a
physics simulator to continuously update the policy that is first learned from
human demonstration. To deal with the high dimensions of robot parameters, we
propose an algorithm for multi-dimensional evolution path searching that allows
joint optimization of both the robot evolution path and the policy. Through
experiments on human object manipulation datasets, we show that our framework
can efficiently transfer the expert human agent policy trained from human
demonstrations in diverse modalities to target commercial robots.
- Abstract(参考訳): 人間のデモから学ぶ能力は、ロボットに様々なタスクを自動化する能力を与える。
しかし,人間の手の構造はロボットグリッパーと大きく異なる可能性があるため,人間の実演から直接学習することは困難である。
本研究では,人間からロボットへ,マイクロ進化的強化学習(micro-evolutionary reinforcement learning)を用いて操作スキルを伝達し,5本指の人間のデクスタラスハンドロボットが徐々に商用ロボットへと進化し,物理シミュレータで繰り返し対話することで,人間の実演から学んだ方針を継続的に更新できることを示す。
ロボットのパラメータの高次元に対応するために,ロボット進化経路と方針の協調最適化を可能にする多次元進化経路探索アルゴリズムを提案する。
人体操作データセットの実験を通じて,本フレームワークは,人体実験から訓練した専門家のエージェントポリシーを,商業ロボットをターゲットとした多種多様なモダリティで効率的に伝達可能であることを示す。
関連論文リスト
- HumanPlus: Humanoid Shadowing and Imitation from Humans [82.47551890765202]
ヒューマノイドが人間のデータから動きや自律的なスキルを学ぶためのフルスタックシステムを導入する。
まず、既存の40時間動作データセットを用いて、強化学習によるシミュレーションの低レベルポリシーを訓練する。
次に、自己中心型視覚を用いてスキルポリシーを訓練し、ヒューマノイドが自律的に異なるタスクを完了できるようにする。
論文 参考訳(メタデータ) (2024-06-15T00:41:34Z) - HumanoidBench: Simulated Humanoid Benchmark for Whole-Body Locomotion and Manipulation [50.616995671367704]
そこで本研究では,人型ロボットが器用な手を備えた,高次元シミュレーション型ロボット学習ベンチマークHumanoidBenchを提案する。
その結果,現在最先端の強化学習アルゴリズムがほとんどのタスクに支障をきたすのに対して,階層的学習アプローチはロバストな低レベルポリシーに支えられた場合,優れた性能を達成できることがわかった。
論文 参考訳(メタデータ) (2024-03-15T17:45:44Z) - Expressive Whole-Body Control for Humanoid Robots [20.132927075816742]
我々は、人間の動きをできるだけリアルに模倣するために、人間サイズのロボットで全身制御ポリシーを学習する。
シミュレーションとSim2Real転送のトレーニングにより、私たちのポリシーはヒューマノイドロボットを制御して、さまざまなスタイルで歩いたり、人と握手したり、現実世界で人間と踊ったりできる。
論文 参考訳(メタデータ) (2024-02-26T18:09:24Z) - InteRACT: Transformer Models for Human Intent Prediction Conditioned on Robot Actions [7.574421886354134]
InteRACTアーキテクチャは、大規模な人間と人間のデータセットと小さな人間とロボットのデータセットの微細構造に関する条件付き意図予測モデルを事前訓練する。
実世界の協調的なロボット操作タスクについて評価し、条件付きモデルが様々な限界ベースラインよりも改善されていることを示す。
論文 参考訳(メタデータ) (2023-11-21T19:15:17Z) - Giving Robots a Hand: Learning Generalizable Manipulation with
Eye-in-Hand Human Video Demonstrations [66.47064743686953]
眼内カメラは、視覚に基づくロボット操作において、より優れたサンプル効率と一般化を可能にすることを約束している。
一方、人間がタスクを行うビデオは、ロボット遠隔操作の専門知識を欠いているため、収集コストがずっと安い。
本研究では,広範にラベルのない人間ビデオによるロボット模倣データセットを拡張し,眼球運動ポリシーの一般化を大幅に促進する。
論文 参考訳(メタデータ) (2023-07-12T07:04:53Z) - Learning a Universal Human Prior for Dexterous Manipulation from Human
Preference [35.54663426598218]
本稿では,ビデオ上での人間の嗜好を直接フィードバックすることで,人類の普遍性を学習するフレームワークを提案する。
多様な警察を反復的に生成し、軌道上の人間の嗜好を収集することにより、タスクに依存しない報酬モデルを訓練する。
提案手法は,ロボットの手の動作を,目に見えないタスクを含む多様なタスクで実証的に示す。
論文 参考訳(メタデータ) (2023-04-10T14:17:33Z) - Zero-Shot Robot Manipulation from Passive Human Videos [59.193076151832145]
我々は,人間の映像からエージェント非依存の行動表現を抽出するフレームワークを開発した。
我々の枠組みは、人間の手の動きを予測することに基づいている。
トレーニングされたモデルゼロショットを物理ロボット操作タスクにデプロイする。
論文 参考訳(メタデータ) (2023-02-03T21:39:52Z) - Learning Bipedal Robot Locomotion from Human Movement [0.791553652441325]
本研究では、実世界の二足歩行ロボットに、モーションキャプチャーデータから直接の動きを教えるための強化学習に基づく手法を提案する。
本手法は,シミュレーション環境下でのトレーニングから,物理ロボット上での実行へシームレスに移行する。
本研究では,ダイナミックウォークサイクルから複雑なバランスや手振りに至るまでの動作を内製したヒューマノイドロボットについて実演する。
論文 参考訳(メタデータ) (2021-05-26T00:49:37Z) - Human Grasp Classification for Reactive Human-to-Robot Handovers [50.91803283297065]
本稿では,ロボットが人間に遭遇するロボットのハンドオーバに対するアプローチを提案する。
対象物をさまざまな手形やポーズで保持する典型的な方法をカバーする,人間の把握データセットを収集する。
本稿では,検出した把握位置と手の位置に応じて人手から対象物を取り出す計画実行手法を提案する。
論文 参考訳(メタデータ) (2020-03-12T19:58:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。