論文の概要: Human-Robot Skill Transfer with Enhanced Compliance via Dynamic Movement
Primitives
- arxiv url: http://arxiv.org/abs/2304.05703v1
- Date: Wed, 12 Apr 2023 08:48:28 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-13 15:40:12.986448
- Title: Human-Robot Skill Transfer with Enhanced Compliance via Dynamic Movement
Primitives
- Title(参考訳): ダイナミックモーションプリミティブによるコンプライアンス強化による人間ロボットのスキル伝達
- Authors: Jayden Hong, Zengjie Zhang, Amir M. Soufi Enayati, and Homayoun
Najjaran
- Abstract要約: 本研究では,動的運動プリミティブ(Dynamic Movement Primitives)フレームワークにおいて,人間の実演から動的特徴を抽出し,パラメータを自動チューニングする体系的手法を提案する。
本手法は,LfDとRLの両方に追従するロボット軌道を再現するために,人間の動的特徴を抽出するための実際のロボット装置に実装した。
- 参考スコア(独自算出の注目度): 1.7901837062462316
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Finding an efficient way to adapt robot trajectory is a priority to improve
overall performance of robots. One approach for trajectory planning is through
transferring human-like skills to robots by Learning from Demonstrations (LfD).
The human demonstration is considered the target motion to mimic. However,
human motion is typically optimal for human embodiment but not for robots
because of the differences between human biomechanics and robot dynamics. The
Dynamic Movement Primitives (DMP) framework is a viable solution for this
limitation of LfD, but it requires tuning the second-order dynamics in the
formulation. Our contribution is introducing a systematic method to extract the
dynamic features from human demonstration to auto-tune the parameters in the
DMP framework. In addition to its use with LfD, another utility of the proposed
method is that it can readily be used in conjunction with Reinforcement
Learning (RL) for robot training. In this way, the extracted features
facilitate the transfer of human skills by allowing the robot to explore the
possible trajectories more efficiently and increasing robot compliance
significantly. We introduced a methodology to extract the dynamic features from
multiple trajectories based on the optimization of human-likeness and
similarity in the parametric space. Our method was implemented into an actual
human-robot setup to extract human dynamic features and used to regenerate the
robot trajectories following both LfD and RL with DMP. It resulted in a stable
performance of the robot, maintaining a high degree of human-likeness based on
accumulated distance error as good as the best heuristic tuning.
- Abstract(参考訳): ロボットの軌道を適応させる効率的な方法を見つけることは、ロボットの全体的な性能を改善するための優先事項である。
軌道計画の1つのアプローチは、人間のようなスキルをデモから学ぶ(LfD)ことでロボットに移すことである。
人間のデモンストレーションは、模倣するターゲットモーションと見なされる。
しかし、人間の運動は人間の体格に最適であるが、人間のバイオメカニクスとロボットのダイナミクスの違いのためロボットには最適ではない。
Dynamic Movement Primitives (DMP) フレームワークは、LfDのこの制限に対して実行可能なソリューションであるが、定式化において2階のダイナミクスをチューニングする必要がある。
我々は,dmpフレームワークのパラメータを自動調整するために,人間の実演から動的特徴を抽出する体系的手法を提案する。
lfdでの利用に加えて、ロボットの訓練に強化学習(rl)を併用して容易に使用できることも提案手法の別の有用性である。
このようにして抽出された特徴は、ロボットがより効率的に軌道を探索し、ロボットのコンプライアンスを著しく向上させることで、人間のスキルの伝達を促進する。
パラメトリック空間における人間の類似性と類似性の最適化に基づいて,複数の軌道から動的特徴を抽出する手法を提案する。
本手法は,人間の動力学的特徴を抽出するための実際のロボット装置に実装され,LfDとRLの両方に追従するロボット軌道をDMPで再生する。
その結果、ロボットの性能は安定し、蓄積した距離誤差に基づいて高い人間の類似性を保ち、最高のヒューリスティックチューニングを実現した。
関連論文リスト
- VidMan: Exploiting Implicit Dynamics from Video Diffusion Model for Effective Robot Manipulation [79.00294932026266]
VidManは、安定性を高め、データ利用効率を向上させるために、2段階のトレーニングメカニズムを使用する新しいフレームワークである。
我々のフレームワークは、CALVINベンチマークで最先端のベースラインモデルGR-1を上回り、11.7%の相対的な改善を実現し、OXEの小規模データセットで9%以上の精度向上を示す。
論文 参考訳(メタデータ) (2024-11-14T03:13:26Z) - HumanoidBench: Simulated Humanoid Benchmark for Whole-Body Locomotion and Manipulation [50.616995671367704]
そこで本研究では,人型ロボットが器用な手を備えた,高次元シミュレーション型ロボット学習ベンチマークHumanoidBenchを提案する。
その結果,現在最先端の強化学習アルゴリズムがほとんどのタスクに支障をきたすのに対して,階層的学習アプローチはロバストな低レベルポリシーに支えられた場合,優れた性能を達成できることがわかった。
論文 参考訳(メタデータ) (2024-03-15T17:45:44Z) - Learning Multimodal Latent Dynamics for Human-Robot Interaction [19.803547418450236]
本稿では,ヒト-ヒトインタラクション(HHI)から協調型人間-ロボットインタラクション(HRI)を学習する方法を提案する。
本研究では,隠れマルコフモデル(HMM)を変分オートエンコーダの潜在空間として用いて,相互作用するエージェントの結合分布をモデル化するハイブリッドアプローチを考案する。
ユーザが私たちのメソッドを,より人間らしく,タイムリーで,正確なものと認識し,他のベースラインよりも高い優先度でメソッドをランク付けすることが分かりました。
論文 参考訳(メタデータ) (2023-11-27T23:56:59Z) - Robot Learning with Sensorimotor Pre-training [98.7755895548928]
ロボット工学のための自己教師型感覚運動器事前学習手法を提案する。
我々のモデルはRTTと呼ばれ、センサモレータトークンのシーケンスで動作するトランスフォーマーである。
感覚運動の事前学習は、ゼロからトレーニングを一貫して上回り、優れたスケーリング特性を持ち、さまざまなタスク、環境、ロボット間での移動を可能にしている。
論文 参考訳(メタデータ) (2023-06-16T17:58:10Z) - Learning Bipedal Walking for Humanoids with Current Feedback [5.429166905724048]
アクチュエータレベルでの不正確なトルクトラッキングから生じるヒューマノイドロボットのシム2リアルギャップ問題を克服するためのアプローチを提案する。
提案手法は、実際のHRP-5Pヒューマノイドロボットに展開して二足歩行を実現するシミュレーションにおいて、一貫したエンドツーエンドのポリシーをトレーニングする。
論文 参考訳(メタデータ) (2023-03-07T08:16:46Z) - HERD: Continuous Human-to-Robot Evolution for Learning from Human
Demonstration [57.045140028275036]
本研究では,マイクロ進化的強化学習を用いて,操作スキルを人間からロボットに伝達可能であることを示す。
本稿では,ロボットの進化経路とポリシーを協調的に最適化する多次元進化経路探索アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-12-08T15:56:13Z) - Model Predictive Control for Fluid Human-to-Robot Handovers [50.72520769938633]
人間の快適さを考慮に入れた計画運動は、人間ロボットのハンドオーバプロセスの一部ではない。
本稿では,効率的なモデル予測制御フレームワークを用いてスムーズな動きを生成することを提案する。
ユーザ数名の多様なオブジェクトに対して,人間とロボットのハンドオーバ実験を行う。
論文 参考訳(メタデータ) (2022-03-31T23:08:20Z) - REvolveR: Continuous Evolutionary Models for Robot-to-robot Policy
Transfer [57.045140028275036]
本研究では,運動学や形態学など,異なるパラメータを持つ2つの異なるロボット間でポリシーを伝達する問題を考察する。
模倣学習手法を含む動作や状態遷移の分布を一致させることで、新しいポリシーを訓練する既存のアプローチは、最適な動作や/または状態分布が異なるロボットでミスマッチしているために失敗する。
本稿では,物理シミュレータに実装されたロボット政策伝達に連続的進化モデルを用いることで,$RevolveR$という新しい手法を提案する。
論文 参考訳(メタデータ) (2022-02-10T18:50:25Z) - Learning Bipedal Robot Locomotion from Human Movement [0.791553652441325]
本研究では、実世界の二足歩行ロボットに、モーションキャプチャーデータから直接の動きを教えるための強化学習に基づく手法を提案する。
本手法は,シミュレーション環境下でのトレーニングから,物理ロボット上での実行へシームレスに移行する。
本研究では,ダイナミックウォークサイクルから複雑なバランスや手振りに至るまでの動作を内製したヒューマノイドロボットについて実演する。
論文 参考訳(メタデータ) (2021-05-26T00:49:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。