論文の概要: Human Grasp Classification for Reactive Human-to-Robot Handovers
- arxiv url: http://arxiv.org/abs/2003.06000v1
- Date: Thu, 12 Mar 2020 19:58:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-24 15:33:31.195709
- Title: Human Grasp Classification for Reactive Human-to-Robot Handovers
- Title(参考訳): 能動型人間-ロボットハンドオーバのためのヒューマングラフ分類
- Authors: Wei Yang, Chris Paxton, Maya Cakmak, Dieter Fox
- Abstract要約: 本稿では,ロボットが人間に遭遇するロボットのハンドオーバに対するアプローチを提案する。
対象物をさまざまな手形やポーズで保持する典型的な方法をカバーする,人間の把握データセットを収集する。
本稿では,検出した把握位置と手の位置に応じて人手から対象物を取り出す計画実行手法を提案する。
- 参考スコア(独自算出の注目度): 50.91803283297065
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Transfer of objects between humans and robots is a critical capability for
collaborative robots. Although there has been a recent surge of interest in
human-robot handovers, most prior research focus on robot-to-human handovers.
Further, work on the equally critical human-to-robot handovers often assumes
humans can place the object in the robot's gripper. In this paper, we propose
an approach for human-to-robot handovers in which the robot meets the human
halfway, by classifying the human's grasp of the object and quickly planning a
trajectory accordingly to take the object from the human's hand according to
their intent. To do this, we collect a human grasp dataset which covers typical
ways of holding objects with various hand shapes and poses, and learn a deep
model on this dataset to classify the hand grasps into one of these categories.
We present a planning and execution approach that takes the object from the
human hand according to the detected grasp and hand position, and replans as
necessary when the handover is interrupted. Through a systematic evaluation, we
demonstrate that our system results in more fluent handovers versus two
baselines. We also present findings from a user study (N = 9) demonstrating the
effectiveness and usability of our approach with naive users in different
scenarios. More results and videos can be found at http://wyang.me/handovers.
- Abstract(参考訳): 人間とロボット間の物体の移動は、協調ロボットにとって重要な能力である。
近年、ロボットハンドオーバへの関心が高まっているが、ほとんどの研究はロボットから人間へのハンドオーバに焦点を当てている。
さらに、人間とロボットのハンドオーバは、人間がロボットのグリップにオブジェクトを配置できると仮定することが多い。
本稿では,ロボットが人間の中途で遭遇するロボットハンドオーバに対して,物体の把握を分類し,その意図に応じて物体を人間の手から取り出すための軌道を迅速に計画するアプローチを提案する。
これを実現するために,様々な手形やポーズを持つ物体の保持方法の典型的方法をカバーする人間把握データセットを収集し,このデータセットの深いモデルを学習し,手把握をこれらのカテゴリの1つに分類する。
本稿では,検出された把持位置と手の位置に応じて対象物を人手から取り出し,ハンドオーバを中断した場合に必要に応じて再計画する計画実行手法を提案する。
体系的な評価により、我々のシステムは2つのベースラインに対してより流動的なハンドオーバをもたらすことを示す。
また,N=9のユーザスタディから,異なるシナリオにおけるナイーブユーザによるアプローチの有効性とユーザビリティを示す知見も提示した。
さらなる結果とビデオはhttp://wyang.me/handovers.comで見ることができる。
関連論文リスト
- ContactHandover: Contact-Guided Robot-to-Human Object Handover [23.093164853009547]
本稿では,接触誘導獲得フェーズと物体の伝達フェーズの2つのフェーズからなるヒューマンハンドオーバシステムを提案する。
把握フェーズでは、ContactHandoverは6-DoFロボットのグリップポーズと、オブジェクト上の人間の接触点の3D割当マップの両方を予測する。
配達段階では、人間の腕関節トルクと変位を最小化しつつ、人間に近い接触点を最大化してロボットエンドエフェクタポーズを算出する。
論文 参考訳(メタデータ) (2024-04-01T18:12:09Z) - InteRACT: Transformer Models for Human Intent Prediction Conditioned on Robot Actions [7.574421886354134]
InteRACTアーキテクチャは、大規模な人間と人間のデータセットと小さな人間とロボットのデータセットの微細構造に関する条件付き意図予測モデルを事前訓練する。
実世界の協調的なロボット操作タスクについて評価し、条件付きモデルが様々な限界ベースラインよりも改善されていることを示す。
論文 参考訳(メタデータ) (2023-11-21T19:15:17Z) - ImitationNet: Unsupervised Human-to-Robot Motion Retargeting via Shared Latent Space [9.806227900768926]
本稿では,ロボットの動きに対する新しいディープラーニング手法を提案する。
本手法では,新しいロボットへの翻訳を容易にする,人間とロボットのペアデータを必要としない。
我々のモデルは、効率と精度の観点から、人間とロボットの類似性に関する既存の研究よりも優れています。
論文 参考訳(メタデータ) (2023-09-11T08:55:04Z) - HERD: Continuous Human-to-Robot Evolution for Learning from Human
Demonstration [57.045140028275036]
本研究では,マイクロ進化的強化学習を用いて,操作スキルを人間からロボットに伝達可能であることを示す。
本稿では,ロボットの進化経路とポリシーを協調的に最適化する多次元進化経路探索アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-12-08T15:56:13Z) - Robots with Different Embodiments Can Express and Influence Carefulness
in Object Manipulation [104.5440430194206]
本研究では,2つのロボットによるコミュニケーション意図による物体操作の知覚について検討する。
ロボットの動きを設計し,物体の搬送時に注意を喚起するか否かを判断した。
論文 参考訳(メタデータ) (2022-08-03T13:26:52Z) - Model Predictive Control for Fluid Human-to-Robot Handovers [50.72520769938633]
人間の快適さを考慮に入れた計画運動は、人間ロボットのハンドオーバプロセスの一部ではない。
本稿では,効率的なモデル予測制御フレームワークを用いてスムーズな動きを生成することを提案する。
ユーザ数名の多様なオブジェクトに対して,人間とロボットのハンドオーバ実験を行う。
論文 参考訳(メタデータ) (2022-03-31T23:08:20Z) - Careful with That! Observation of Human Movements to Estimate Objects
Properties [106.925705883949]
我々は、物体の重さについての洞察を伝える人間の運動行動の特徴に焦点を当てる。
最後の目標は、ロボットがオブジェクトハンドリングに必要なケアの度合いを自律的に推測できるようにすることです。
論文 参考訳(メタデータ) (2021-03-02T08:14:56Z) - Reactive Human-to-Robot Handovers of Arbitrary Objects [57.845894608577495]
本稿では、未知の物体の人間とロボットのハンドオーバを可能にするビジョンベースシステムを提案する。
提案手法は,クローズドループ運動計画とリアルタイムかつ時間的に一貫性のあるグリップ生成を組み合わせたものである。
提案手法の汎用性,ユーザビリティ,ロバスト性を,26種類の家庭用オブジェクトからなる新しいベンチマークで実証した。
論文 参考訳(メタデータ) (2020-11-17T21:52:22Z) - Object-Independent Human-to-Robot Handovers using Real Time Robotic
Vision [6.089651609511804]
本稿では,ロボットビジョンと操作を用いた安全でオブジェクトに依存しないロボットハンドオーバのアプローチを提案する。
13の物体を用いた実験で、このロボットは81.9%の試験で人間から物体を取り出すことに成功した。
論文 参考訳(メタデータ) (2020-06-02T17:29:20Z) - Human-robot co-manipulation of extended objects: Data-driven models and
control from analysis of human-human dyads [2.7036498789349244]
我々は人間と人間のダイアド実験のデータを用いて、物理的な人間とロボットのコマニピュレーションタスクに使用する動きの意図を決定する。
我々は、過去の動きに基づく人間の意図を予測するために、人間と人間のトライアルの動作データに基づくディープニューラルネットワークを開発した。
論文 参考訳(メタデータ) (2020-01-03T21:23:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。