論文の概要: BiRP: Learning Robot Generalized Bimanual Coordination using Relative
Parameterization Method on Human Demonstration
- arxiv url: http://arxiv.org/abs/2307.05933v1
- Date: Wed, 12 Jul 2023 05:58:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-13 14:10:21.351780
- Title: BiRP: Learning Robot Generalized Bimanual Coordination using Relative
Parameterization Method on Human Demonstration
- Title(参考訳): BiRP: 相対パラメタライゼーション法による人間記述の一般化された二元座標学習ロボット
- Authors: Junjia Liu, Hengyi Sim, Chenzui Li, and Fei Chen
- Abstract要約: 本研究は,ヒトの日常活動における主業務をリーダ・フォロワーと相乗的コーディネーションの2つのタイプに分けた。
本研究では,人間の実演からこれらの調整を学習するための相対パラメータ化手法を提案する。
本手法は,ロボットによる大規模操作モデルトレーニングのためのデータプラグインとして活用できる可能性が示唆されている。
- 参考スコア(独自算出の注目度): 2.301921384458527
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Human bimanual manipulation can perform more complex tasks than a simple
combination of two single arms, which is credited to the spatio-temporal
coordination between the arms. However, the description of bimanual
coordination is still an open topic in robotics. This makes it difficult to
give an explainable coordination paradigm, let alone applied to robotics. In
this work, we divide the main bimanual tasks in human daily activities into two
types: leader-follower and synergistic coordination. Then we propose a relative
parameterization method to learn these types of coordination from human
demonstration. It represents coordination as Gaussian mixture models from
bimanual demonstration to describe the change in the importance of coordination
throughout the motions by probability. The learned coordinated representation
can be generalized to new task parameters while ensuring spatio-temporal
coordination. We demonstrate the method using synthetic motions and human
demonstration data and deploy it to a humanoid robot to perform a generalized
bimanual coordination motion. We believe that this easy-to-use bimanual
learning from demonstration (LfD) method has the potential to be used as a data
augmentation plugin for robot large manipulation model training. The
corresponding codes are open-sourced in https://github.com/Skylark0924/Rofunc.
- Abstract(参考訳): ヒトの両手操作は2本の腕の単純な組み合わせよりも複雑な作業を行うことができ、腕間の時空間的調整が認められている。
しかし、二元協調の記述はロボティクスにおいてまだオープンな話題である。
これにより、ロボティクスに限らず、説明可能なコーディネーションパラダイムを与えるのが難しくなります。
本研究では,人間の日常活動における主課題を,リーダーフォローと相乗協調の2つのタイプに分けた。
次に,人間の実演からこれらのコーディネーションを学ぶための相対的パラメータ化手法を提案する。
両面的なデモンストレーションから得られたガウス混合モデルとしてコーディネーションを表現し、確率による運動全体のコーディネーションの重要性の変化を記述する。
学習されたコーディネート表現は、時空間的コーディネーションを確保しながら、新しいタスクパラメータに一般化することができる。
人工動作と人間の実演データを用いて人型ロボットに展開し、一般化された双対協調動作を行う手法を実証する。
ロボットによる大規模操作モデルトレーニングのためのデータ拡張プラグインとして,この2次元学習(lfd)手法が利用できる可能性が示唆されている。
対応するコードはhttps://github.com/Skylark0924/Rofuncで公開されている。
関連論文リスト
- Human-Agent Joint Learning for Efficient Robot Manipulation Skill Acquisition [48.65867987106428]
本稿では,人間とロボットの協調学習システムについて紹介する。
これにより、ロボットエンドエフェクターの制御を学習支援エージェントと共有することができる。
これにより、ダウンストリームタスクにおいて、収集されたデータが十分な品質であることを保証しながら、人間の適応の必要性を減らすことができる。
論文 参考訳(メタデータ) (2024-06-29T03:37:29Z) - Towards Generalizable Zero-Shot Manipulation via Translating Human
Interaction Plans [58.27029676638521]
我々は、人間の受動的ビデオが、そのようなジェネラリストロボットを学習するための豊富なデータ源であることを示す。
我々は、シーンの現在の画像とゴール画像から将来の手やオブジェクトの設定を予測する人間の計画予測器を学習する。
学習システムは、40個のオブジェクトに一般化する16以上の操作スキルを実現できることを示す。
論文 参考訳(メタデータ) (2023-12-01T18:54:12Z) - Learning Multimodal Latent Dynamics for Human-Robot Interaction [19.803547418450236]
本稿では,ヒト-ヒトインタラクション(HHI)から協調型人間-ロボットインタラクション(HRI)を学習する方法を提案する。
本研究では,隠れマルコフモデル(HMM)を変分オートエンコーダの潜在空間として用いて,相互作用するエージェントの結合分布をモデル化するハイブリッドアプローチを考案する。
ユーザが私たちのメソッドを,より人間らしく,タイムリーで,正確なものと認識し,他のベースラインよりも高い優先度でメソッドをランク付けすることが分かりました。
論文 参考訳(メタデータ) (2023-11-27T23:56:59Z) - InterControl: Zero-shot Human Interaction Generation by Controlling Every Joint [67.6297384588837]
関節間の所望距離を維持するために,新しい制御可能な運動生成手法であるInterControlを導入する。
そこで本研究では,既成の大規模言語モデルを用いて,ヒューマンインタラクションのための結合ペア間の距離を生成できることを実証した。
論文 参考訳(メタデータ) (2023-11-27T14:32:33Z) - ImitationNet: Unsupervised Human-to-Robot Motion Retargeting via Shared Latent Space [9.806227900768926]
本稿では,ロボットの動きに対する新しいディープラーニング手法を提案する。
本手法では,新しいロボットへの翻訳を容易にする,人間とロボットのペアデータを必要としない。
我々のモデルは、効率と精度の観点から、人間とロボットの類似性に関する既存の研究よりも優れています。
論文 参考訳(メタデータ) (2023-09-11T08:55:04Z) - Learning Reward Functions for Robotic Manipulation by Observing Humans [92.30657414416527]
我々は、ロボット操作ポリシーのタスク非依存報酬関数を学習するために、幅広い操作タスクを解く人間のラベル付きビデオを使用する。
学習された報酬は、タイムコントラストの目的を用いて学習した埋め込み空間におけるゴールまでの距離に基づいている。
論文 参考訳(メタデータ) (2022-11-16T16:26:48Z) - Robot Cooking with Stir-fry: Bimanual Non-prehensile Manipulation of
Semi-fluid Objects [13.847796949856457]
本文では,中国料理の調理法をバイマニアルロボットシステムに応用するアプローチについて述べる。
そこで本研究では,人間の実演から変形可能な物体の操作を学習するための分離されたフレームワークを提案する。
視覚的なフィードバックを加えることで、我々のフレームワークは自動的に動きを調整し、所望のスパイクフライ効果を達成することができる。
論文 参考訳(メタデータ) (2022-05-12T08:58:30Z) - Synthesis and Execution of Communicative Robotic Movements with
Generative Adversarial Networks [59.098560311521034]
我々は、繊細な物体を操作する際に人間が採用するのと同じキネマティクス変調を2つの異なるロボットプラットフォームに転送する方法に焦点を当てる。
我々は、ロボットのエンドエフェクターが採用する速度プロファイルを、異なる特徴を持つ物体を輸送する際に人間が何をするかに触発されて調整する。
我々は、人体キネマティクスの例を用いて訓練され、それらを一般化し、新しい有意義な速度プロファイルを生成する、新しいジェネレーティブ・アドバイサル・ネットワークアーキテクチャを利用する。
論文 参考訳(メタデータ) (2022-03-29T15:03:05Z) - Learning Predictive Models From Observation and Interaction [137.77887825854768]
世界との相互作用から予測モデルを学ぶことで、ロボットのようなエージェントが世界がどのように働くかを学ぶことができる。
しかし、複雑なスキルのダイナミクスを捉えるモデルを学ぶことは大きな課題である。
本研究では,人間などの他のエージェントの観察データを用いて,トレーニングセットを増強する手法を提案する。
論文 参考訳(メタデータ) (2019-12-30T01:10:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。