論文の概要: SynH2R: Synthesizing Hand-Object Motions for Learning Human-to-Robot
Handovers
- arxiv url: http://arxiv.org/abs/2311.05599v1
- Date: Thu, 9 Nov 2023 18:57:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-10 14:00:18.977364
- Title: SynH2R: Synthesizing Hand-Object Motions for Learning Human-to-Robot
Handovers
- Title(参考訳): SynH2R:人間とロボットのハンドオーバ学習のための手動の合成
- Authors: Sammy Christen and Lan Feng and Wei Yang and Yu-Wei Chao and Otmar
Hilliges and Jie Song
- Abstract要約: 視覚に基づく人間とロボットのハンドオーバは、人間とロボットのインタラクションにおいて重要かつ困難なタスクである。
本稿では,ロボットの訓練に適した人間のつかみ動作を生成するためのフレームワークを提案する。
これにより、以前の作業よりも100倍多くのオブジェクトで、総合的なトレーニングとテストデータを生成することができます。
- 参考スコア(独自算出の注目度): 37.49601724575655
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Vision-based human-to-robot handover is an important and challenging task in
human-robot interaction. Recent work has attempted to train robot policies by
interacting with dynamic virtual humans in simulated environments, where the
policies can later be transferred to the real world. However, a major
bottleneck is the reliance on human motion capture data, which is expensive to
acquire and difficult to scale to arbitrary objects and human grasping motions.
In this paper, we introduce a framework that can generate plausible human
grasping motions suitable for training the robot. To achieve this, we propose a
hand-object synthesis method that is designed to generate handover-friendly
motions similar to humans. This allows us to generate synthetic training and
testing data with 100x more objects than previous work. In our experiments, we
show that our method trained purely with synthetic data is competitive with
state-of-the-art methods that rely on real human motion data both in simulation
and on a real system. In addition, we can perform evaluations on a larger scale
compared to prior work. With our newly introduced test set, we show that our
model can better scale to a large variety of unseen objects and human motions
compared to the baselines. Project page:
https://eth-ait.github.io/synthetic-handovers/
- Abstract(参考訳): ビジョンに基づく人間とロボットのハンドオーバは、人間とロボットのインタラクションにおいて重要かつ挑戦的なタスクである。
近年の研究では、ダイナミックな仮想人間と対話してロボットのポリシーを訓練しようと試みており、そこではその後、そのポリシーを現実世界に移すことができる。
しかし、大きなボトルネックは人間のモーションキャプチャーデータへの依存であり、これは取得が高価であり、任意の物体や人間のつかむ動きにスケールすることが困難である。
本稿では,ロボットの訓練に適した人間のつかみ動作を多目的に生成するフレームワークを提案する。
そこで本研究では,人間に類似したハンドオーバフレンドリーな動作を生成するために,手動オブジェクト合成法を提案する。
これにより、以前の作業よりも100倍多くのオブジェクトで、合成トレーニングとテストデータを生成することができます。
本研究では,シミュレーションと実システムの両方で実際の人間の動作データに依存する最先端の手法と,純粋に合成データで訓練された手法が競合することを示す。
また,従来の作業よりも大規模な評価を行うことができる。
新たに導入したテストセットによって,本モデルがベースラインと比較して,未知の物体や人間の動作を多種多様なものにスケールできることを示した。
プロジェクトページ: https://eth-ait.github.io/synthetic-handovers/
関連論文リスト
- Expressive Whole-Body Control for Humanoid Robots [20.132927075816742]
我々は、人間の動きをできるだけリアルに模倣するために、人間サイズのロボットで全身制御ポリシーを学習する。
シミュレーションとSim2Real転送のトレーニングにより、私たちのポリシーはヒューマノイドロボットを制御して、さまざまなスタイルで歩いたり、人と握手したり、現実世界で人間と踊ったりできる。
論文 参考訳(メタデータ) (2024-02-26T18:09:24Z) - Habitat 3.0: A Co-Habitat for Humans, Avatars and Robots [119.55240471433302]
Habitat 3.0は、家庭環境における協調ロボットタスクを研究するためのシミュレーションプラットフォームである。
複雑な変形可能な体と外観と運動の多様性をモデル化する際の課題に対処する。
Human-in-the-loopインフラストラクチャは、マウス/キーボードまたはVRインターフェースを介してシミュレーションされたロボットとの実際のヒューマンインタラクションを可能にする。
論文 参考訳(メタデータ) (2023-10-19T17:29:17Z) - Object Motion Guided Human Motion Synthesis [22.08240141115053]
大規模物体の操作におけるフルボディ人体動作合成の問題点について検討する。
条件付き拡散フレームワークであるOMOMO(Object Motion Guided Human Motion synthesis)を提案する。
我々は、操作対象物にスマートフォンを装着するだけで、全身の人間の操作動作をキャプチャする新しいシステムを開発した。
論文 参考訳(メタデータ) (2023-09-28T08:22:00Z) - Learning Human-to-Robot Handovers from Point Clouds [63.18127198174958]
視覚に基づく人間ロボットハンドオーバの制御ポリシーを学習する最初のフレームワークを提案する。
シミュレーションベンチマーク,sim-to-sim転送,sim-to-real転送において,ベースラインよりも大きな性能向上を示した。
論文 参考訳(メタデータ) (2023-03-30T17:58:36Z) - IMoS: Intent-Driven Full-Body Motion Synthesis for Human-Object
Interactions [69.95820880360345]
そこで本研究では,仮想人物の全身動作を3Dオブジェクトで合成する最初のフレームワークを提案する。
本システムでは,オブジェクトと仮想文字の関連意図を入力テキストとして記述する。
その結果, 80%以上のシナリオにおいて, 合成された全身運動は参加者よりリアルに見えることがわかった。
論文 参考訳(メタデータ) (2022-12-14T23:59:24Z) - HERD: Continuous Human-to-Robot Evolution for Learning from Human
Demonstration [57.045140028275036]
本研究では,マイクロ進化的強化学習を用いて,操作スキルを人間からロボットに伝達可能であることを示す。
本稿では,ロボットの進化経路とポリシーを協調的に最適化する多次元進化経路探索アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-12-08T15:56:13Z) - Model Predictive Control for Fluid Human-to-Robot Handovers [50.72520769938633]
人間の快適さを考慮に入れた計画運動は、人間ロボットのハンドオーバプロセスの一部ではない。
本稿では,効率的なモデル予測制御フレームワークを用いてスムーズな動きを生成することを提案する。
ユーザ数名の多様なオブジェクトに対して,人間とロボットのハンドオーバ実験を行う。
論文 参考訳(メタデータ) (2022-03-31T23:08:20Z) - Learning Bipedal Robot Locomotion from Human Movement [0.791553652441325]
本研究では、実世界の二足歩行ロボットに、モーションキャプチャーデータから直接の動きを教えるための強化学習に基づく手法を提案する。
本手法は,シミュレーション環境下でのトレーニングから,物理ロボット上での実行へシームレスに移行する。
本研究では,ダイナミックウォークサイクルから複雑なバランスや手振りに至るまでの動作を内製したヒューマノイドロボットについて実演する。
論文 参考訳(メタデータ) (2021-05-26T00:49:37Z) - Human Grasp Classification for Reactive Human-to-Robot Handovers [50.91803283297065]
本稿では,ロボットが人間に遭遇するロボットのハンドオーバに対するアプローチを提案する。
対象物をさまざまな手形やポーズで保持する典型的な方法をカバーする,人間の把握データセットを収集する。
本稿では,検出した把握位置と手の位置に応じて人手から対象物を取り出す計画実行手法を提案する。
論文 参考訳(メタデータ) (2020-03-12T19:58:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。