論文の概要: Unsupervised human-to-robot motion retargeting via expressive latent
space
- arxiv url: http://arxiv.org/abs/2309.05310v1
- Date: Mon, 11 Sep 2023 08:55:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-12 13:18:07.743145
- Title: Unsupervised human-to-robot motion retargeting via expressive latent
space
- Title(参考訳): 表現力のある潜在空間を用いたロボット間移動再ターゲティングの教師なし化
- Authors: Yashuai Yan and Esteve Valls Mascaro and Dongheui Lee
- Abstract要約: 本稿では,ロボットが人間の動きを正確に模倣できる新しいロボット動作法を提案する。
本研究では,人間からロボットへ直接翻訳する深層学習手法を提案する。
本手法では,人間とロボットのペアの動きデータを必要としないため,新しいロボットを採用する際の労力を削減できる。
- 参考スコア(独自算出の注目度): 11.021217430606042
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper introduces a novel approach for human-to-robot motion retargeting,
enabling robots to mimic human motion with precision while preserving the
semantics of the motion. For that, we propose a deep learning method for direct
translation from human to robot motion. Our method does not require annotated
paired human-to-robot motion data, which reduces the effort when adopting new
robots. To this end, we first propose a cross-domain similarity metric to
compare the poses from different domains (i.e., human and robot). Then, our
method achieves the construction of a shared latent space via contrastive
learning and decodes latent representations to robot motion control commands.
The learned latent space exhibits expressiveness as it captures the motions
precisely and allows direct motion control in the latent space. We showcase how
to generate in-between motion through simple linear interpolation in the latent
space between two projected human poses. Additionally, we conducted a
comprehensive evaluation of robot control using diverse modality inputs, such
as texts, RGB videos, and key-poses, which enhances the ease of robot control
to users of all backgrounds. Finally, we compare our model with existing works
and quantitatively and qualitatively demonstrate the effectiveness of our
approach, enhancing natural human-robot communication and fostering trust in
integrating robots into daily life.
- Abstract(参考訳): 本稿では,ロボットがロボットの動きを正確に模倣し,動作の意味を保ちながらロボットの動きを再現する手法を提案する。
そこで本研究では,人間からロボットへ直接翻訳する深層学習手法を提案する。
提案手法では,人間対ロボットの動作データをアノテートする必要はなく,新しいロボットを採用する際の労力を削減できる。
この目的のために,まず,異なる領域(すなわち人間とロボット)のポーズを比較するクロスドメイン類似度指標を提案する。
そして,ロボット動作制御コマンドに対して,コントラスト学習による共有潜在空間の構築と潜在表現のデコードを実現する。
学習された潜在空間は、正確に動きを捉えることで表現力を示し、潜在空間での直接運動制御を可能にする。
2つの射影された人間のポーズ間の潜在空間における単純な線形補間により、相互間運動を生成する方法を紹介する。
さらに,テキスト,RGBビデオ,キープレースなどの多種多様なモダリティ入力を用いたロボット制御の総合評価を行い,すべての背景を持つユーザに対するロボット制御の容易性を高めた。
最後に,本モデルと既存の研究とを比較し,本手法の有効性を定量的かつ質的に実証し,人間とロボットのコミュニケーションを強化し,ロボットを日常生活に組み込む信頼を育む。
関連論文リスト
- GNN-based Decentralized Perception in Multirobot Systems for Predicting Worker Actions [12.260881600042374]
本稿では,移動ロボットが人間の行動に関する情報を分散的に理解し,共有することのできる認識フレームワークを提案する。
スウォームにインスパイアされた意思決定プロセスは、すべてのロボットが人間の行動の統一的な解釈に合意することを保証するために使用される。
論文 参考訳(メタデータ) (2025-01-08T00:06:38Z) - Learning to Transfer Human Hand Skills for Robot Manipulations [12.797862020095856]
本稿では,人間の手の動きのデモから,ロボットに巧妙な操作課題を教える方法を提案する。
本手法では,人間の手の動き,ロボットの手の動き,物体の動きを3Dでマッピングする関節運動多様体を学習し,ある動きを他者から推測する。
論文 参考訳(メタデータ) (2025-01-07T22:33:47Z) - Know your limits! Optimize the robot's behavior through self-awareness [11.021217430606042]
最近の人間ロボット模倣アルゴリズムは、高精度な人間の動きを追従することに焦点を当てている。
本稿では,ロボットが参照を模倣する際の動作を予測できるディープラーニングモデルを提案する。
我々のSAW(Self-AWare Model)は、転倒確率、基準運動への固執、滑らかさといった様々な基準に基づいて、潜在的なロボットの挙動をランク付けする。
論文 参考訳(メタデータ) (2024-09-16T14:14:58Z) - HumanoidBench: Simulated Humanoid Benchmark for Whole-Body Locomotion and Manipulation [50.616995671367704]
そこで本研究では,人型ロボットが器用な手を備えた,高次元シミュレーション型ロボット学習ベンチマークHumanoidBenchを提案する。
その結果,現在最先端の強化学習アルゴリズムがほとんどのタスクに支障をきたすのに対して,階層的学習アプローチはロバストな低レベルポリシーに支えられた場合,優れた性能を達成できることがわかった。
論文 参考訳(メタデータ) (2024-03-15T17:45:44Z) - InteRACT: Transformer Models for Human Intent Prediction Conditioned on Robot Actions [7.574421886354134]
InteRACTアーキテクチャは、大規模な人間と人間のデータセットと小さな人間とロボットのデータセットの微細構造に関する条件付き意図予測モデルを事前訓練する。
実世界の協調的なロボット操作タスクについて評価し、条件付きモデルが様々な限界ベースラインよりも改善されていることを示す。
論文 参考訳(メタデータ) (2023-11-21T19:15:17Z) - HERD: Continuous Human-to-Robot Evolution for Learning from Human
Demonstration [57.045140028275036]
本研究では,マイクロ進化的強化学習を用いて,操作スキルを人間からロボットに伝達可能であることを示す。
本稿では,ロボットの進化経路とポリシーを協調的に最適化する多次元進化経路探索アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-12-08T15:56:13Z) - CoGrasp: 6-DoF Grasp Generation for Human-Robot Collaboration [0.0]
そこで我々は,人間を意識したロボットグリップを生成する,CoGraspと呼ばれる新しいディープニューラルネットワーク方式を提案する。
実際のロボット実験では,安定グリップの生成において約88%の成功率を達成した。
我々のアプローチは、安全で自然で社会的に認識された人間ロボットオブジェクトのコグラスピング体験を可能にします。
論文 参考訳(メタデータ) (2022-10-06T19:23:25Z) - Model Predictive Control for Fluid Human-to-Robot Handovers [50.72520769938633]
人間の快適さを考慮に入れた計画運動は、人間ロボットのハンドオーバプロセスの一部ではない。
本稿では,効率的なモデル予測制御フレームワークを用いてスムーズな動きを生成することを提案する。
ユーザ数名の多様なオブジェクトに対して,人間とロボットのハンドオーバ実験を行う。
論文 参考訳(メタデータ) (2022-03-31T23:08:20Z) - REvolveR: Continuous Evolutionary Models for Robot-to-robot Policy
Transfer [57.045140028275036]
本研究では,運動学や形態学など,異なるパラメータを持つ2つの異なるロボット間でポリシーを伝達する問題を考察する。
模倣学習手法を含む動作や状態遷移の分布を一致させることで、新しいポリシーを訓練する既存のアプローチは、最適な動作や/または状態分布が異なるロボットでミスマッチしているために失敗する。
本稿では,物理シミュレータに実装されたロボット政策伝達に連続的進化モデルを用いることで,$RevolveR$という新しい手法を提案する。
論文 参考訳(メタデータ) (2022-02-10T18:50:25Z) - Show Me What You Can Do: Capability Calibration on Reachable Workspace
for Human-Robot Collaboration [83.4081612443128]
本稿では,REMPを用いた短時間キャリブレーションにより,ロボットが到達できると考える非専門家と地道とのギャップを効果的に埋めることができることを示す。
この校正手順は,ユーザ認識の向上だけでなく,人間とロボットのコラボレーションの効率化にも寄与することを示す。
論文 参考訳(メタデータ) (2021-03-06T09:14:30Z) - Human Grasp Classification for Reactive Human-to-Robot Handovers [50.91803283297065]
本稿では,ロボットが人間に遭遇するロボットのハンドオーバに対するアプローチを提案する。
対象物をさまざまな手形やポーズで保持する典型的な方法をカバーする,人間の把握データセットを収集する。
本稿では,検出した把握位置と手の位置に応じて人手から対象物を取り出す計画実行手法を提案する。
論文 参考訳(メタデータ) (2020-03-12T19:58:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。