論文の概要: HERD: Continuous Human-to-Robot Evolution for Learning from Human
Demonstration
- arxiv url: http://arxiv.org/abs/2212.04359v1
- Date: Thu, 8 Dec 2022 15:56:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-09 14:22:04.262872
- Title: HERD: Continuous Human-to-Robot Evolution for Learning from Human
Demonstration
- Title(参考訳): HERD:人間からロボットへの継続的な進化
- Authors: Xingyu Liu, Deepak Pathak, Kris M. Kitani
- Abstract要約: 本研究では,マイクロ進化的強化学習を用いて,操作スキルを人間からロボットに伝達可能であることを示す。
本稿では,ロボットの進化経路とポリシーを協調的に最適化する多次元進化経路探索アルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 57.045140028275036
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The ability to learn from human demonstration endows robots with the ability
to automate various tasks. However, directly learning from human demonstration
is challenging since the structure of the human hand can be very different from
the desired robot gripper. In this work, we show that manipulation skills can
be transferred from a human to a robot through the use of micro-evolutionary
reinforcement learning, where a five-finger human dexterous hand robot
gradually evolves into a commercial robot, while repeated interacting in a
physics simulator to continuously update the policy that is first learned from
human demonstration. To deal with the high dimensions of robot parameters, we
propose an algorithm for multi-dimensional evolution path searching that allows
joint optimization of both the robot evolution path and the policy. Through
experiments on human object manipulation datasets, we show that our framework
can efficiently transfer the expert human agent policy trained from human
demonstrations in diverse modalities to target commercial robots.
- Abstract(参考訳): 人間のデモから学ぶ能力は、ロボットに様々なタスクを自動化する能力を与える。
しかし,人間の手の構造はロボットグリッパーと大きく異なる可能性があるため,人間の実演から直接学習することは困難である。
本研究では,人間からロボットへ,マイクロ進化的強化学習(micro-evolutionary reinforcement learning)を用いて操作スキルを伝達し,5本指の人間のデクスタラスハンドロボットが徐々に商用ロボットへと進化し,物理シミュレータで繰り返し対話することで,人間の実演から学んだ方針を継続的に更新できることを示す。
ロボットのパラメータの高次元に対応するために,ロボット進化経路と方針の協調最適化を可能にする多次元進化経路探索アルゴリズムを提案する。
人体操作データセットの実験を通じて,本フレームワークは,人体実験から訓練した専門家のエージェントポリシーを,商業ロボットをターゲットとした多種多様なモダリティで効率的に伝達可能であることを示す。
関連論文リスト
- RHINO: Learning Real-Time Humanoid-Human-Object Interaction from Human Demonstrations [38.1742893736782]
RHINOは一般のヒューマノイド-ヒト-オブジェクト相互作用フレームワークである。
リアクティブモーション、命令ベースの操作、安全性に関する統一的なビューを提供する。
1)リアルタイムな人間の行動から人間の意図を推定するハイレベルプランナー,2)予測された意図に基づく反応行動とオブジェクト操作のスキルを達成する低レベルコントローラである。
論文 参考訳(メタデータ) (2025-02-18T18:56:41Z) - Learning to Transfer Human Hand Skills for Robot Manipulations [12.797862020095856]
本稿では,人間の手の動きのデモから,ロボットに巧妙な操作課題を教える方法を提案する。
本手法では,人間の手の動き,ロボットの手の動き,物体の動きを3Dでマッピングする関節運動多様体を学習し,ある動きを他者から推測する。
論文 参考訳(メタデータ) (2025-01-07T22:33:47Z) - Human-Humanoid Robots Cross-Embodiment Behavior-Skill Transfer Using Decomposed Adversarial Learning from Demonstration [9.42179962375058]
本稿では,デジタル人間モデルを共通プロトタイプとして使用することにより,データのボトルネックを低減するための転送可能なフレームワークを提案する。
このモデルは、人間による実演から、敵対的な模倣を通して行動プリミティブを学習し、複雑なロボット構造を機能的な構成要素に分解する。
本フレームワークは,多種多様な構成のヒューマノイドロボット5体を用いて検証した。
論文 参考訳(メタデータ) (2024-12-19T18:41:45Z) - HumanPlus: Humanoid Shadowing and Imitation from Humans [82.47551890765202]
ヒューマノイドが人間のデータから動きや自律的なスキルを学ぶためのフルスタックシステムを導入する。
まず、既存の40時間動作データセットを用いて、強化学習によるシミュレーションの低レベルポリシーを訓練する。
次に、自己中心型視覚を用いてスキルポリシーを訓練し、ヒューマノイドが自律的に異なるタスクを完了できるようにする。
論文 参考訳(メタデータ) (2024-06-15T00:41:34Z) - HumanoidBench: Simulated Humanoid Benchmark for Whole-Body Locomotion and Manipulation [50.616995671367704]
そこで本研究では,人型ロボットが器用な手を備えた,高次元シミュレーション型ロボット学習ベンチマークHumanoidBenchを提案する。
その結果,現在最先端の強化学習アルゴリズムがほとんどのタスクに支障をきたすのに対して,階層的学習アプローチはロバストな低レベルポリシーに支えられた場合,優れた性能を達成できることがわかった。
論文 参考訳(メタデータ) (2024-03-15T17:45:44Z) - Giving Robots a Hand: Learning Generalizable Manipulation with
Eye-in-Hand Human Video Demonstrations [66.47064743686953]
眼内カメラは、視覚に基づくロボット操作において、より優れたサンプル効率と一般化を可能にすることを約束している。
一方、人間がタスクを行うビデオは、ロボット遠隔操作の専門知識を欠いているため、収集コストがずっと安い。
本研究では,広範にラベルのない人間ビデオによるロボット模倣データセットを拡張し,眼球運動ポリシーの一般化を大幅に促進する。
論文 参考訳(メタデータ) (2023-07-12T07:04:53Z) - Learning a Universal Human Prior for Dexterous Manipulation from Human
Preference [35.54663426598218]
本稿では,ビデオ上での人間の嗜好を直接フィードバックすることで,人類の普遍性を学習するフレームワークを提案する。
多様な警察を反復的に生成し、軌道上の人間の嗜好を収集することにより、タスクに依存しない報酬モデルを訓練する。
提案手法は,ロボットの手の動作を,目に見えないタスクを含む多様なタスクで実証的に示す。
論文 参考訳(メタデータ) (2023-04-10T14:17:33Z) - Zero-Shot Robot Manipulation from Passive Human Videos [59.193076151832145]
我々は,人間の映像からエージェント非依存の行動表現を抽出するフレームワークを開発した。
我々の枠組みは、人間の手の動きを予測することに基づいている。
トレーニングされたモデルゼロショットを物理ロボット操作タスクにデプロイする。
論文 参考訳(メタデータ) (2023-02-03T21:39:52Z) - Human Grasp Classification for Reactive Human-to-Robot Handovers [50.91803283297065]
本稿では,ロボットが人間に遭遇するロボットのハンドオーバに対するアプローチを提案する。
対象物をさまざまな手形やポーズで保持する典型的な方法をカバーする,人間の把握データセットを収集する。
本稿では,検出した把握位置と手の位置に応じて人手から対象物を取り出す計画実行手法を提案する。
論文 参考訳(メタデータ) (2020-03-12T19:58:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。