論文の概要: Redefining Data Pairing for Motion Retargeting Leveraging a Human Body Prior
- arxiv url: http://arxiv.org/abs/2409.13208v1
- Date: Tue, 1 Oct 2024 06:42:29 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-07 11:29:51.749184
- Title: Redefining Data Pairing for Motion Retargeting Leveraging a Human Body Prior
- Title(参考訳): 人体を前もって活用する動き再ターゲットのためのデータペア化
- Authors: Xiyana Figuera, Soogeun Park, Hyemin Ahn,
- Abstract要約: MR.HuBoは、高品質な上半身のテキストロボットのラングルをポーズデータとして収集するコスト効率が高く便利な方法である。
また、大量の人間のポーズデータに基づいて教師付き学習によってトレーニングできる2段階のモーションニューラルネットワークを提案する。
- 参考スコア(独自算出の注目度): 4.5409191511532505
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose MR.HuBo (Motion Retargeting leveraging a HUman BOdy prior), a cost-effective and convenient method to collect high-quality upper body paired $\langle \text{robot, human} \rangle$ pose data, which is essential for data-driven motion retargeting methods. Unlike existing approaches which collect $\langle \text{robot, human} \rangle$ pose data by converting human MoCap poses into robot poses, our method goes in reverse. We first sample diverse random robot poses, and then convert them into human poses. However, since random robot poses can result in extreme and infeasible human poses, we propose an additional technique to sort out extreme poses by exploiting a human body prior trained from a large amount of human pose data. Our data collection method can be used for any humanoid robots, if one designs or optimizes the system's hyperparameters which include a size scale factor and the joint angle ranges for sampling. In addition to this data collection method, we also present a two-stage motion retargeting neural network that can be trained via supervised learning on a large amount of paired data. Compared to other learning-based methods trained via unsupervised learning, we found that our deep neural network trained with ample high-quality paired data achieved notable performance. Our experiments also show that our data filtering method yields better retargeting results than training the model with raw and noisy data. Our code and video results are available on https://sites.google.com/view/mr-hubo/
- Abstract(参考訳): HUman BOdy を前に活用した MR.HuBo (Motion Retargeting leverageing a HUman BOdy prior) を提案する。これは高品質な上半身対である $\langle \text{robot, human} \rangle$ pose データを集めるための費用効率の良い方法であり、これはデータ駆動のモーションリターゲティングに必須である。
既存のアプローチでは$\langle \text{robot, human} \rangle$は人間のMoCapのポーズをロボットのポーズに変換する。
まず、多様なランダムなロボットのポーズをサンプリングし、それを人間のポーズに変換する。
しかし、ランダムなロボットのポーズは極端な人間のポーズをもたらす可能性があるため、大量の人間のポーズデータから事前訓練された人間の身体を活用することで、極端なポーズをソートする新たな手法を提案する。
我々のデータ収集方法は、サイズスケール係数とサンプリングのための関節角度範囲を含むシステムのハイパーパラメータを設計または最適化する場合、任意のヒューマノイドロボットに使用することができる。
このデータ収集法に加えて、大量のペアデータに基づいて教師付き学習によってトレーニングできる2段階の運動再ターゲットニューラルネットワークも提案する。
教師なし学習によってトレーニングされた他の学習ベースの方法と比較して、私たちのディープニューラルネットワークは、十分な高品質なペアデータでトレーニングされたことにより、顕著なパフォーマンスを実現した。
また,本実験により,本手法は,生データや雑音データによるモデルトレーニングよりも,より優れた再ターゲティング結果が得られることを示した。
私たちのコードとビデオ結果はhttps://sites.google.com/view/mr-hubo/で公開されています。
関連論文リスト
- Mitigating the Human-Robot Domain Discrepancy in Visual Pre-training for Robotic Manipulation [16.809190349155525]
最近の研究は、人間のデータを用いた大規模な事前学習に変わった。
人間とロボットの形態的差異は、有意な人間-ロボットドメインの相違をもたらす。
そこで本研究では,容易に利用可能な人間ロボットのビデオデータを利用して,その相違を補う新しい適応パラダイムを提案する。
論文 参考訳(メタデータ) (2024-06-20T11:57:46Z) - Learning Human Action Recognition Representations Without Real Humans [66.61527869763819]
そこで本研究では,仮想人間を含む合成データを用いて,実世界の映像を活用してモデルを事前学習するベンチマークを提案する。
次に、このデータに基づいて学習した表現を、下流行動認識ベンチマークの様々なセットに転送可能であるかを評価する。
私たちのアプローチは、以前のベースラインを最大5%上回ります。
論文 参考訳(メタデータ) (2023-11-10T18:38:14Z) - Scaling Robot Learning with Semantically Imagined Experience [21.361979238427722]
ロボット学習の最近の進歩は、ロボットが操作タスクを実行できることを約束している。
この進歩に寄与する要因の1つは、モデルのトレーニングに使用されるロボットデータのスケールである。
本稿では,コンピュータビジョンや自然言語処理に広く用いられているテキスト・ツー・イメージ基盤モデルを利用した代替手法を提案する。
論文 参考訳(メタデータ) (2023-02-22T18:47:51Z) - Automatically Prepare Training Data for YOLO Using Robotic In-Hand
Observation and Synthesis [14.034128227585143]
本稿では,ロボットが収集した限られたデータセットを拡大するために,ロボット内観察とデータ合成を組み合わせることを提案する。
収集された合成画像を組み合わせて、ディープ検出ニューラルネットワークをトレーニングする。
その結果, 観察画像と合成画像の組み合わせが手動データ作成に匹敵する性能を示した。
論文 参考訳(メタデータ) (2023-01-04T04:20:08Z) - Learning Reward Functions for Robotic Manipulation by Observing Humans [92.30657414416527]
我々は、ロボット操作ポリシーのタスク非依存報酬関数を学習するために、幅広い操作タスクを解く人間のラベル付きビデオを使用する。
学習された報酬は、タイムコントラストの目的を用いて学習した埋め込み空間におけるゴールまでの距離に基づいている。
論文 参考訳(メタデータ) (2022-11-16T16:26:48Z) - Model Predictive Control for Fluid Human-to-Robot Handovers [50.72520769938633]
人間の快適さを考慮に入れた計画運動は、人間ロボットのハンドオーバプロセスの一部ではない。
本稿では,効率的なモデル予測制御フレームワークを用いてスムーズな動きを生成することを提案する。
ユーザ数名の多様なオブジェクトに対して,人間とロボットのハンドオーバ実験を行う。
論文 参考訳(メタデータ) (2022-03-31T23:08:20Z) - Where is my hand? Deep hand segmentation for visual self-recognition in
humanoid robots [129.46920552019247]
本稿では、画像からロボットの手を切り離すための畳み込みニューラルネットワーク(CNN)を提案する。
ヒューマノイドロボットVizzyの手のセグメンテーションのために,Mask-RCNNネットワークを微調整した。
論文 参考訳(メタデータ) (2021-02-09T10:34:32Z) - Cascaded deep monocular 3D human pose estimation with evolutionary
training data [76.3478675752847]
深層表現学習は単眼の3次元ポーズ推定において顕著な精度を達成した。
本稿では,大量のトレーニングデータに対してスケーラブルな新しいデータ拡張手法を提案する。
本手法は,先行知識に触発された階層的人体表現と合成に基づいて,未知の3次元人体骨格を合成する。
論文 参考訳(メタデータ) (2020-06-14T03:09:52Z) - Learning Predictive Models From Observation and Interaction [137.77887825854768]
世界との相互作用から予測モデルを学ぶことで、ロボットのようなエージェントが世界がどのように働くかを学ぶことができる。
しかし、複雑なスキルのダイナミクスを捉えるモデルを学ぶことは大きな課題である。
本研究では,人間などの他のエージェントの観察データを用いて,トレーニングセットを増強する手法を提案する。
論文 参考訳(メタデータ) (2019-12-30T01:10:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。