論文の概要: Model Predictive Control for Fluid Human-to-Robot Handovers
- arxiv url: http://arxiv.org/abs/2204.00134v1
- Date: Thu, 31 Mar 2022 23:08:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-04 15:24:43.847121
- Title: Model Predictive Control for Fluid Human-to-Robot Handovers
- Title(参考訳): 流体ロボットハンドオーバのモデル予測制御
- Authors: Wei Yang, Balakumar Sundaralingam, Chris Paxton, Iretiayo Akinola,
Yu-Wei Chao, Maya Cakmak, Dieter Fox
- Abstract要約: 人間の快適さを考慮に入れた計画運動は、人間ロボットのハンドオーバプロセスの一部ではない。
本稿では,効率的なモデル予測制御フレームワークを用いてスムーズな動きを生成することを提案する。
ユーザ数名の多様なオブジェクトに対して,人間とロボットのハンドオーバ実験を行う。
- 参考スコア(独自算出の注目度): 50.72520769938633
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Human-robot handover is a fundamental yet challenging task in human-robot
interaction and collaboration. Recently, remarkable progressions have been made
in human-to-robot handovers of unknown objects by using learning-based grasp
generators. However, how to responsively generate smooth motions to take an
object from a human is still an open question. Specifically, planning motions
that take human comfort into account is not a part of the human-robot handover
process in most prior works. In this paper, we propose to generate smooth
motions via an efficient model-predictive control (MPC) framework that
integrates perception and complex domain-specific constraints into the
optimization problem. We introduce a learning-based grasp reachability model to
select candidate grasps which maximize the robot's manipulability, giving it
more freedom to satisfy these constraints. Finally, we integrate a neural net
force/torque classifier that detects contact events from noisy data. We
conducted human-to-robot handover experiments on a diverse set of objects with
several users (N=4) and performed a systematic evaluation of each module. The
study shows that the users preferred our MPC approach over the baseline system
by a large margin. More results and videos are available at
https://sites.google.com/nvidia.com/mpc-for-handover.
- Abstract(参考訳): 人間-ロボットのハンドオーバは、人間-ロボットのインタラクションとコラボレーションにおいて、基本的な課題である。
近年,学習型把持生成器を用いた未知物体のヒューマン・ロボットハンドオーバにおける著しい進歩がみられた。
しかし、人間から物体を取り出すためのスムーズな動きをいかに応答的に生み出すかはまだ未解決の問題だ。
具体的には、人間の快適性を考慮に入れた計画運動は、以前のほとんどの作業において、人間とロボットのハンドオーバプロセスの一部ではない。
本稿では,知覚と複雑な領域固有の制約を最適化問題に統合した効率的なモデル予測制御(mpc)フレームワークにより,滑らかな動きを生成することを提案する。
ロボットのマニピュラビリティを最大化する候補把持を選択できる学習ベースの把持到達可能性モデルを導入し,これらの制約を満たす自由度を高める。
最後に、ノイズデータから接触事象を検出するニューラルネットワーク力/トルク分類器を統合する。
複数ユーザ(N=4)の多種多様なオブジェクトに対して人間とロボットのハンドオーバ実験を行い,各モジュールの系統的評価を行った。
本研究は,mpcアプローチがベースラインシステムよりも大きなマージンで好まれていることを示す。
結果とビデオはhttps://sites.google.com/nvidia.com/mpc-for-handover.comで見ることができる。
関連論文リスト
- Learning Multimodal Latent Dynamics for Human-Robot Interaction [19.803547418450236]
本稿では,ヒト-ヒトインタラクション(HHI)から協調型人間-ロボットインタラクション(HRI)を学習する方法を提案する。
本研究では,隠れマルコフモデル(HMM)を変分オートエンコーダの潜在空間として用いて,相互作用するエージェントの結合分布をモデル化するハイブリッドアプローチを考案する。
ユーザが私たちのメソッドを,より人間らしく,タイムリーで,正確なものと認識し,他のベースラインよりも高い優先度でメソッドをランク付けすることが分かりました。
論文 参考訳(メタデータ) (2023-11-27T23:56:59Z) - SynH2R: Synthesizing Hand-Object Motions for Learning Human-to-Robot
Handovers [37.49601724575655]
視覚に基づく人間とロボットのハンドオーバは、人間とロボットのインタラクションにおいて重要かつ困難なタスクである。
本稿では,ロボットの訓練に適した人間のつかみ動作を生成するためのフレームワークを提案する。
これにより、以前の作業よりも100倍多くのオブジェクトで、総合的なトレーニングとテストデータを生成することができます。
論文 参考訳(メタデータ) (2023-11-09T18:57:02Z) - ImitationNet: Unsupervised Human-to-Robot Motion Retargeting via Shared
Latent Space [11.021217430606042]
本稿では,ロボットの動きに対する新しいディープラーニング手法を提案する。
本手法では,新しいロボットへの翻訳を容易にする,人間とロボットのペアデータを必要としない。
我々のモデルは、効率と精度の観点から、人間とロボットの類似性に関する既存の研究よりも優れています。
論文 参考訳(メタデータ) (2023-09-11T08:55:04Z) - Learning Human-to-Robot Handovers from Point Clouds [63.18127198174958]
視覚に基づく人間ロボットハンドオーバの制御ポリシーを学習する最初のフレームワークを提案する。
シミュレーションベンチマーク,sim-to-sim転送,sim-to-real転送において,ベースラインよりも大きな性能向上を示した。
論文 参考訳(メタデータ) (2023-03-30T17:58:36Z) - Task-Oriented Human-Object Interactions Generation with Implicit Neural
Representations [61.659439423703155]
TOHO: 命令型ニューラル表現を用いたタスク指向型ヒューマンオブジェクトインタラクション生成
本手法は時間座標のみでパラメータ化される連続運動を生成する。
この研究は、一般的なヒューマン・シーンの相互作用シミュレーションに向けて一歩前進する。
論文 参考訳(メタデータ) (2023-03-23T09:31:56Z) - Self-Improving Robots: End-to-End Autonomous Visuomotor Reinforcement
Learning [54.636562516974884]
模倣と強化学習において、人間の監督コストは、ロボットが訓練できるデータの量を制限する。
本研究では,自己改善型ロボットシステムのための新しい設計手法であるMEDAL++を提案する。
ロボットは、タスクの実施と解除の両方を学ぶことで、自律的にタスクを練習し、同時にデモンストレーションから報酬関数を推論する。
論文 参考訳(メタデータ) (2023-03-02T18:51:38Z) - Motron: Multimodal Probabilistic Human Motion Forecasting [30.154996245556532]
モトロン(Motron)は、人間のマルチモーダルを捉えるグラフ構造モデルである。
各モードに対して決定論的動きと対応する信頼値を出力する。
実世界の動き予測データセットを用いて,本モデルの性能を実証する。
論文 参考訳(メタデータ) (2022-03-08T14:58:41Z) - Human Grasp Classification for Reactive Human-to-Robot Handovers [50.91803283297065]
本稿では,ロボットが人間に遭遇するロボットのハンドオーバに対するアプローチを提案する。
対象物をさまざまな手形やポーズで保持する典型的な方法をカバーする,人間の把握データセットを収集する。
本稿では,検出した把握位置と手の位置に応じて人手から対象物を取り出す計画実行手法を提案する。
論文 参考訳(メタデータ) (2020-03-12T19:58:03Z) - Hyperparameters optimization for Deep Learning based emotion prediction
for Human Robot Interaction [0.2549905572365809]
インセプションモジュールをベースとした畳み込みニューラルネットワークアーキテクチャを提案する。
モデルは人型ロボットNAOにリアルタイムに実装され、モデルの堅牢性を評価する。
論文 参考訳(メタデータ) (2020-01-12T05:25:02Z) - Learning Predictive Models From Observation and Interaction [137.77887825854768]
世界との相互作用から予測モデルを学ぶことで、ロボットのようなエージェントが世界がどのように働くかを学ぶことができる。
しかし、複雑なスキルのダイナミクスを捉えるモデルを学ぶことは大きな課題である。
本研究では,人間などの他のエージェントの観察データを用いて,トレーニングセットを増強する手法を提案する。
論文 参考訳(メタデータ) (2019-12-30T01:10:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。