論文の概要: Object-Independent Human-to-Robot Handovers using Real Time Robotic
Vision
- arxiv url: http://arxiv.org/abs/2006.01797v2
- Date: Mon, 21 Sep 2020 16:40:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-26 00:21:43.004771
- Title: Object-Independent Human-to-Robot Handovers using Real Time Robotic
Vision
- Title(参考訳): リアルタイムロボットビジョンを用いた物体非依存ロボットハンドオーバ
- Authors: Patrick Rosenberger, Akansel Cosgun, Rhys Newbury, Jun Kwan, Valerio
Ortenzi, Peter Corke and Manfred Grafinger
- Abstract要約: 本稿では,ロボットビジョンと操作を用いた安全でオブジェクトに依存しないロボットハンドオーバのアプローチを提案する。
13の物体を用いた実験で、このロボットは81.9%の試験で人間から物体を取り出すことに成功した。
- 参考スコア(独自算出の注目度): 6.089651609511804
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present an approach for safe and object-independent human-to-robot
handovers using real time robotic vision and manipulation. We aim for general
applicability with a generic object detector, a fast grasp selection algorithm
and by using a single gripper-mounted RGB-D camera, hence not relying on
external sensors. The robot is controlled via visual servoing towards the
object of interest. Putting a high emphasis on safety, we use two perception
modules: human body part segmentation and hand/finger segmentation. Pixels that
are deemed to belong to the human are filtered out from candidate grasp poses,
hence ensuring that the robot safely picks the object without colliding with
the human partner. The grasp selection and perception modules run concurrently
in real-time, which allows monitoring of the progress. In experiments with 13
objects, the robot was able to successfully take the object from the human in
81.9% of the trials.
- Abstract(参考訳): 本稿では,ロボットビジョンと操作を用いた安全でオブジェクトに依存しないロボットハンドオーバのアプローチを提案する。
汎用物体検出器,高速把持選択アルゴリズム,グリッパー搭載rgb-dカメラの汎用的適用を目標とし,外部センサに依存しない。
ロボットは、対象物に対する視覚サーボを通じて制御される。
安全性を重視し,人体部分のセグメンテーションと手指のセグメンテーションという2つの知覚モジュールを用いた。
人間のものと考えられるピクセルは、候補の把持ポーズからフィルタリングされ、ロボットが人間のパートナーと衝突することなく安全に物体を拾うことを保証する。
把持選択と知覚モジュールはリアルタイムで同時に動作し、進捗の監視を可能にする。
13の物体を用いた実験で、このロボットは81.9%の試験で人間から物体を取り出すことに成功した。
関連論文リスト
- ImitationNet: Unsupervised Human-to-Robot Motion Retargeting via Shared Latent Space [9.806227900768926]
本稿では,ロボットの動きに対する新しいディープラーニング手法を提案する。
本手法では,新しいロボットへの翻訳を容易にする,人間とロボットのペアデータを必要としない。
我々のモデルは、効率と精度の観点から、人間とロボットの類似性に関する既存の研究よりも優れています。
論文 参考訳(メタデータ) (2023-09-11T08:55:04Z) - Giving Robots a Hand: Learning Generalizable Manipulation with
Eye-in-Hand Human Video Demonstrations [66.47064743686953]
眼内カメラは、視覚に基づくロボット操作において、より優れたサンプル効率と一般化を可能にすることを約束している。
一方、人間がタスクを行うビデオは、ロボット遠隔操作の専門知識を欠いているため、収集コストがずっと安い。
本研究では,広範にラベルのない人間ビデオによるロボット模倣データセットを拡張し,眼球運動ポリシーの一般化を大幅に促進する。
論文 参考訳(メタデータ) (2023-07-12T07:04:53Z) - Robot to Human Object Handover using Vision and Joint Torque Sensor
Modalities [3.580924916641143]
このシステムは、完全に自律的で堅牢なオブジェクトを人間の受信機にリアルタイムでハンドオーバする。
我々のアルゴリズムは、腕の関節トルクセンサーと、センサーフィードバックのための眼内RGB-Dカメラの2つの相補的なセンサーモードに依存している。
センサフィードバックの同期、オブジェクト、人手検出における課題にもかかわらず、我々のシステムは98%の精度で堅牢なロボットと人間のハンドオーバを実現する。
論文 参考訳(メタデータ) (2022-10-27T00:11:34Z) - Robots with Different Embodiments Can Express and Influence Carefulness
in Object Manipulation [104.5440430194206]
本研究では,2つのロボットによるコミュニケーション意図による物体操作の知覚について検討する。
ロボットの動きを設計し,物体の搬送時に注意を喚起するか否かを判断した。
論文 参考訳(メタデータ) (2022-08-03T13:26:52Z) - Intelligent Motion Planning for a Cost-effective Object Follower Mobile
Robotic System with Obstacle Avoidance [0.2062593640149623]
本稿では,ロボットビジョンと深層学習を用いて,必要な直線および角速度を求めるロボットシステムを提案する。
私たちが提案している新しい手法は、任意の種類の照明において、ユニークな色付けされた物体の位置を検出するのに正確である。
論文 参考訳(メタデータ) (2021-09-06T19:19:47Z) - From Movement Kinematics to Object Properties: Online Recognition of
Human Carefulness [112.28757246103099]
ロボットは、視覚だけで、人間のパートナーが物体を動かす際に注意を払っているかを、どのようにオンラインで推測できるかを示す。
我々は,低解像度カメラでも高い精度(最大81.3%)でこの推論を行うことができることを示した。
パートナーの行動を観察することによる動きの注意の迅速な認識により、ロボットはオブジェクトに対する行動に適応し、人間のパートナーと同じケアの度合いを示すことができる。
論文 参考訳(メタデータ) (2021-09-01T16:03:13Z) - Careful with That! Observation of Human Movements to Estimate Objects
Properties [106.925705883949]
我々は、物体の重さについての洞察を伝える人間の運動行動の特徴に焦点を当てる。
最後の目標は、ロボットがオブジェクトハンドリングに必要なケアの度合いを自律的に推測できるようにすることです。
論文 参考訳(メタデータ) (2021-03-02T08:14:56Z) - Reactive Human-to-Robot Handovers of Arbitrary Objects [57.845894608577495]
本稿では、未知の物体の人間とロボットのハンドオーバを可能にするビジョンベースシステムを提案する。
提案手法は,クローズドループ運動計画とリアルタイムかつ時間的に一貫性のあるグリップ生成を組み合わせたものである。
提案手法の汎用性,ユーザビリティ,ロバスト性を,26種類の家庭用オブジェクトからなる新しいベンチマークで実証した。
論文 参考訳(メタデータ) (2020-11-17T21:52:22Z) - Gesture Recognition for Initiating Human-to-Robot Handovers [2.1614262520734595]
人間がハンドオーバを開始する意図を認識させることが重要であり、ハンドオーバが意図されていなければ、ロボットは人間からオブジェクトを奪おうとしない。
ハンドオーバジェスチャー認識は単一のRGB画像のバイナリ分類問題として機能する。
以上の結果から,ハンドオーバ動作は90%以上の精度で正しく識別できることがわかった。
論文 参考訳(メタデータ) (2020-07-20T08:49:34Z) - Human Grasp Classification for Reactive Human-to-Robot Handovers [50.91803283297065]
本稿では,ロボットが人間に遭遇するロボットのハンドオーバに対するアプローチを提案する。
対象物をさまざまな手形やポーズで保持する典型的な方法をカバーする,人間の把握データセットを収集する。
本稿では,検出した把握位置と手の位置に応じて人手から対象物を取り出す計画実行手法を提案する。
論文 参考訳(メタデータ) (2020-03-12T19:58:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。