論文の概要: ImitationNet: Unsupervised Human-to-Robot Motion Retargeting via Shared
Latent Space
- arxiv url: http://arxiv.org/abs/2309.05310v2
- Date: Wed, 15 Nov 2023 10:18:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-16 19:47:36.774251
- Title: ImitationNet: Unsupervised Human-to-Robot Motion Retargeting via Shared
Latent Space
- Title(参考訳): ImitationNet:共有潜在空間による非教師なし人間とロボットのモーションリターゲティング
- Authors: Yashuai Yan and Esteve Valls Mascaro and Dongheui Lee
- Abstract要約: 本稿では,ロボットの動きに対する新しいディープラーニング手法を提案する。
本手法では,新しいロボットへの翻訳を容易にする,人間とロボットのペアデータを必要としない。
我々のモデルは、効率と精度の観点から、人間とロボットの類似性に関する既存の研究よりも優れています。
- 参考スコア(独自算出の注目度): 11.021217430606042
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper introduces a novel deep-learning approach for human-to-robot
motion retargeting, enabling robots to mimic human poses accurately. Contrary
to prior deep-learning-based works, our method does not require paired
human-to-robot data, which facilitates its translation to new robots. First, we
construct a shared latent space between humans and robots via adaptive
contrastive learning that takes advantage of a proposed cross-domain similarity
metric between the human and robot poses. Additionally, we propose a
consistency term to build a common latent space that captures the similarity of
the poses with precision while allowing direct robot motion control from the
latent space. For instance, we can generate in-between motion through simple
linear interpolation between two projected human poses. We conduct a
comprehensive evaluation of robot control from diverse modalities (i.e., texts,
RGB videos, and key poses), which facilitates robot control for non-expert
users. Our model outperforms existing works regarding human-to-robot
retargeting in terms of efficiency and precision. Finally, we implemented our
method in a real robot with self-collision avoidance through a whole-body
controller to showcase the effectiveness of our approach. More information on
our website https://evm7.github.io/UnsH2R/
- Abstract(参考訳): 本稿では,ロボットが人間のポーズを正確に模倣できる,ロボット間動作再ターゲティングのための新しいディープラーニング手法を提案する。
従来のディープラーニングに基づく研究とは対照的に,本手法では,新たなロボットへの翻訳を容易にする,人間とロボットのペアデータを必要としない。
まず,人間とロボットのポーズのクロスドメイン類似度指標を生かした適応型コントラスト学習を用いて,人間とロボットの共用潜伏空間を構築した。
さらに,姿勢の類似性を高精度に捉えつつ,潜在空間からのロボットの動き制御を可能にする共通潜在空間構築のための一貫性用語を提案する。
例えば、2つの投影された人間のポーズ間の単純な線形補間によって、中間運動を生成することができる。
我々は, 多様なモダリティ(テキスト, RGBビデオ, キーポーズなど)からロボット制御を包括的に評価し, 非専門家のロボット制御を容易にする。
我々のモデルは、効率と精度の観点から、人間からロボットへのリターゲティングに関する既存の研究よりも優れています。
最後に,本手法を実ロボットに実装し,自己協調回避を全身制御で実現し,本手法の有効性を示す。
我々のウェブサイト https://evm7.github.io/UnsH2R/
関連論文リスト
- Learning Multimodal Latent Dynamics for Human-Robot Interaction [19.803547418450236]
本稿では,ヒト-ヒトインタラクション(HHI)から協調型人間-ロボットインタラクション(HRI)を学習する方法を提案する。
本研究では,隠れマルコフモデル(HMM)を変分オートエンコーダの潜在空間として用いて,相互作用するエージェントの結合分布をモデル化するハイブリッドアプローチを考案する。
ユーザが私たちのメソッドを,より人間らしく,タイムリーで,正確なものと認識し,他のベースラインよりも高い優先度でメソッドをランク付けすることが分かりました。
論文 参考訳(メタデータ) (2023-11-27T23:56:59Z) - InteRACT: Transformer Models for Human Intent Prediction Conditioned on
Robot Actions [8.274511768083665]
InteRACTアーキテクチャは、大規模な人間と人間のデータセットと小さな人間とロボットのデータセットの微細構造に関する条件付き意図予測モデルを事前訓練する。
実世界の協調的なロボット操作タスクについて評価し、条件付きモデルが様々な限界ベースラインよりも改善されていることを示す。
論文 参考訳(メタデータ) (2023-11-21T19:15:17Z) - SACSoN: Scalable Autonomous Control for Social Navigation [62.59274275261392]
我々は、社会的に邪魔にならないナビゲーションのための政策の訓練方法を開発した。
この反事実的摂動を最小化することにより、共有空間における人間の自然な振る舞いを変えない方法でロボットに行動を促すことができる。
屋内移動ロボットが人間の傍観者と対話する大規模なデータセットを収集する。
論文 参考訳(メタデータ) (2023-06-02T19:07:52Z) - HERD: Continuous Human-to-Robot Evolution for Learning from Human
Demonstration [57.045140028275036]
本研究では,マイクロ進化的強化学習を用いて,操作スキルを人間からロボットに伝達可能であることを示す。
本稿では,ロボットの進化経路とポリシーを協調的に最適化する多次元進化経路探索アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-12-08T15:56:13Z) - CoGrasp: 6-DoF Grasp Generation for Human-Robot Collaboration [0.0]
そこで我々は,人間を意識したロボットグリップを生成する,CoGraspと呼ばれる新しいディープニューラルネットワーク方式を提案する。
実際のロボット実験では,安定グリップの生成において約88%の成功率を達成した。
我々のアプローチは、安全で自然で社会的に認識された人間ロボットオブジェクトのコグラスピング体験を可能にします。
論文 参考訳(メタデータ) (2022-10-06T19:23:25Z) - Model Predictive Control for Fluid Human-to-Robot Handovers [50.72520769938633]
人間の快適さを考慮に入れた計画運動は、人間ロボットのハンドオーバプロセスの一部ではない。
本稿では,効率的なモデル予測制御フレームワークを用いてスムーズな動きを生成することを提案する。
ユーザ数名の多様なオブジェクトに対して,人間とロボットのハンドオーバ実験を行う。
論文 参考訳(メタデータ) (2022-03-31T23:08:20Z) - REvolveR: Continuous Evolutionary Models for Robot-to-robot Policy
Transfer [57.045140028275036]
本研究では,運動学や形態学など,異なるパラメータを持つ2つの異なるロボット間でポリシーを伝達する問題を考察する。
模倣学習手法を含む動作や状態遷移の分布を一致させることで、新しいポリシーを訓練する既存のアプローチは、最適な動作や/または状態分布が異なるロボットでミスマッチしているために失敗する。
本稿では,物理シミュレータに実装されたロボット政策伝達に連続的進化モデルを用いることで,$RevolveR$という新しい手法を提案する。
論文 参考訳(メタデータ) (2022-02-10T18:50:25Z) - Show Me What You Can Do: Capability Calibration on Reachable Workspace
for Human-Robot Collaboration [83.4081612443128]
本稿では,REMPを用いた短時間キャリブレーションにより,ロボットが到達できると考える非専門家と地道とのギャップを効果的に埋めることができることを示す。
この校正手順は,ユーザ認識の向上だけでなく,人間とロボットのコラボレーションの効率化にも寄与することを示す。
論文 参考訳(メタデータ) (2021-03-06T09:14:30Z) - Supportive Actions for Manipulation in Human-Robot Coworker Teams [15.978389978586414]
我々は、将来の干渉を減らすことで相互作用を支援する行動を、支援ロボット行動と表現する。
1)タスク指向: ロボットは自身のタスク目標をさらに進めるためにのみ行動を取るし、(2)支援的: ロボットはタスク指向のタスクよりも支援的行動を好む。
シミュレーション実験では, 人体モデルを用いて, エージェント間の干渉を軽減し, 作業の完了に要する時間が長いことを明らかにした。
論文 参考訳(メタデータ) (2020-05-02T09:37:10Z) - Human Grasp Classification for Reactive Human-to-Robot Handovers [50.91803283297065]
本稿では,ロボットが人間に遭遇するロボットのハンドオーバに対するアプローチを提案する。
対象物をさまざまな手形やポーズで保持する典型的な方法をカバーする,人間の把握データセットを収集する。
本稿では,検出した把握位置と手の位置に応じて人手から対象物を取り出す計画実行手法を提案する。
論文 参考訳(メタデータ) (2020-03-12T19:58:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。