論文の概要: Robot to Human Object Handover using Vision and Joint Torque Sensor
Modalities
- arxiv url: http://arxiv.org/abs/2210.15085v1
- Date: Thu, 27 Oct 2022 00:11:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-28 15:22:21.188424
- Title: Robot to Human Object Handover using Vision and Joint Torque Sensor
Modalities
- Title(参考訳): 視覚と関節トルクセンサを用いたロボットと物体のハンドオーバ
- Authors: Mohammadhadi Mohandes, Behnam Moradi, Kamal Gupta, Mehran Mehrandezh
- Abstract要約: このシステムは、完全に自律的で堅牢なオブジェクトを人間の受信機にリアルタイムでハンドオーバする。
我々のアルゴリズムは、腕の関節トルクセンサーと、センサーフィードバックのための眼内RGB-Dカメラの2つの相補的なセンサーモードに依存している。
センサフィードバックの同期、オブジェクト、人手検出における課題にもかかわらず、我々のシステムは98%の精度で堅牢なロボットと人間のハンドオーバを実現する。
- 参考スコア(独自算出の注目度): 3.580924916641143
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a robot-to-human object handover algorithm and implement it on a
7-DOF arm equipped with a 3-finger mechanical hand. The system performs a fully
autonomous and robust object handover to a human receiver in real-time. Our
algorithm relies on two complementary sensor modalities: joint torque sensors
on the arm and an eye-in-hand RGB-D camera for sensor feedback. Our approach is
entirely implicit, i.e., there is no explicit communication between the robot
and the human receiver. Information obtained via the aforementioned sensor
modalities is used as inputs to their related deep neural networks. While the
torque sensor network detects the human receiver's "intention" such as: pull,
hold, or bump, the vision sensor network detects if the receiver's fingers have
wrapped around the object. Networks' outputs are then fused, based on which a
decision is made to either release the object or not. Despite substantive
challenges in sensor feedback synchronization, object, and human hand
detection, our system achieves robust robot-to-human handover with 98\%
accuracy in our preliminary real experiments using human receivers.
- Abstract(参考訳): 3本指の機械ハンドを備えた7自由度アームにロボット対人ハンドオーバアルゴリズムを実装した。
このシステムは、完全に自律的で堅牢なオブジェクトを人間の受信機にリアルタイムでハンドオーバする。
我々のアルゴリズムは、腕の関節トルクセンサーと、センサーフィードバックのための眼内RGB-Dカメラの2つの相補的なセンサーモードに依存している。
我々のアプローチは完全に暗黙的であり、つまりロボットと人間の受信機の間に明確なコミュニケーションは存在しない。
前述のセンサモダリティによって得られた情報は、関連するディープニューラルネットワークへの入力として使用される。
トルクセンサネットワークは、プル、ホールド、バンプなどの人間の受信者の「意図」を検出するが、視覚センサネットワークは、受信者の指が物体の周りに巻き付いているかどうかを検出する。
ネットワークの出力は融合され、オブジェクトを解放するか否かの判断が下される。
センサフィードバックの同期化,オブジェクト検出,人手検出の副次的な課題にもかかわらず,本システムは,人間の受話器を用いた実演実験において,98\%の精度でロバストなロボット対人ハンドオーバを実現する。
関連論文リスト
- Digitizing Touch with an Artificial Multimodal Fingertip [51.7029315337739]
人間とロボットはどちらも、周囲の環境を知覚し、相互作用するためにタッチを使うことの恩恵を受ける。
ここでは、タッチのデジタル化を改善するための概念的および技術革新について述べる。
これらの進歩は、高度なセンシング機能を備えた人工指型センサーに具現化されている。
論文 参考訳(メタデータ) (2024-11-04T18:38:50Z) - Multimodal Anomaly Detection based on Deep Auto-Encoder for Object Slip
Perception of Mobile Manipulation Robots [22.63980025871784]
提案フレームワークは,RGBや深度カメラ,マイク,力トルクセンサなど,さまざまなロボットセンサから収集した異種データストリームを統合する。
統合されたデータは、ディープオートエンコーダを訓練して、通常の状態を示す多感覚データの潜在表現を構築するために使用される。
次に、トレーニングされたエンコーダの潜伏値と再構成された入力データの潜伏値との差によって測定された誤差スコアによって異常を識別することができる。
論文 参考訳(メタデータ) (2024-03-06T09:15:53Z) - HODN: Disentangling Human-Object Feature for HOI Detection [51.48164941412871]
本稿では,Human and Object Disentangling Network (HODN) を提案し,Human-Object Interaction (HOI) の関係を明示的にモデル化する。
インタラクションに人間的特徴がより寄与していることを考慮し,インタラクションデコーダが人間中心の領域に焦点を当てていることを確認するためのヒューマンガイドリンク手法を提案する。
提案手法は,V-COCOとHICO-Det Linkingデータセットの競合性能を実現する。
論文 参考訳(メタデータ) (2023-08-20T04:12:50Z) - Tactile-Filter: Interactive Tactile Perception for Part Mating [54.46221808805662]
人間は触覚と触覚に頼っている。
視覚ベースの触覚センサーは、様々なロボット認識や制御タスクに広く利用されている。
本稿では,視覚に基づく触覚センサを用いた対話的知覚手法を提案する。
論文 参考訳(メタデータ) (2023-03-10T16:27:37Z) - Human keypoint detection for close proximity human-robot interaction [29.99153271571971]
近接ロボット相互作用の文脈における最先端人間のキーポイント検出器の性能について検討した。
MMPoseとAlphaPoseは近接して全体キーポイント検出器を動作させたが、どちらも指検出に難しかった。
本稿では,MMPose または AlphaPose の身体用と MediaPipe を,最も正確かつ堅牢な検出が可能な単一のフレームワークで組み合わせて提案する。
論文 参考訳(メタデータ) (2022-07-15T20:33:29Z) - Body Gesture Recognition to Control a Social Robot [5.557794184787908]
本研究では,人間の身体を自然に利用してロボットと対話できるジェスチャー型言語を提案する。
ニューラルネットワークを用いた新しいジェスチャー検出モデルと、ネットワークをトレーニングするための身体ジェスチャーセットを実行する人間のカスタムデータセットを作成しました。
論文 参考訳(メタデータ) (2022-06-15T13:49:22Z) - Careful with That! Observation of Human Movements to Estimate Objects
Properties [106.925705883949]
我々は、物体の重さについての洞察を伝える人間の運動行動の特徴に焦点を当てる。
最後の目標は、ロボットがオブジェクトハンドリングに必要なケアの度合いを自律的に推測できるようにすることです。
論文 参考訳(メタデータ) (2021-03-02T08:14:56Z) - Gesture Recognition for Initiating Human-to-Robot Handovers [2.1614262520734595]
人間がハンドオーバを開始する意図を認識させることが重要であり、ハンドオーバが意図されていなければ、ロボットは人間からオブジェクトを奪おうとしない。
ハンドオーバジェスチャー認識は単一のRGB画像のバイナリ分類問題として機能する。
以上の結果から,ハンドオーバ動作は90%以上の精度で正しく識別できることがわかった。
論文 参考訳(メタデータ) (2020-07-20T08:49:34Z) - Object-Independent Human-to-Robot Handovers using Real Time Robotic
Vision [6.089651609511804]
本稿では,ロボットビジョンと操作を用いた安全でオブジェクトに依存しないロボットハンドオーバのアプローチを提案する。
13の物体を用いた実験で、このロボットは81.9%の試験で人間から物体を取り出すことに成功した。
論文 参考訳(メタデータ) (2020-06-02T17:29:20Z) - OmniTact: A Multi-Directional High Resolution Touch Sensor [109.28703530853542]
既存の触覚センサーは、平らで、感度が小さいか、低解像度の信号のみを提供する。
我々は,多方向高解像度触覚センサOmniTactを紹介する。
我々は,ロボット制御の課題に対して,OmniTactの能力を評価する。
論文 参考訳(メタデータ) (2020-03-16T01:31:29Z) - Human Grasp Classification for Reactive Human-to-Robot Handovers [50.91803283297065]
本稿では,ロボットが人間に遭遇するロボットのハンドオーバに対するアプローチを提案する。
対象物をさまざまな手形やポーズで保持する典型的な方法をカバーする,人間の把握データセットを収集する。
本稿では,検出した把握位置と手の位置に応じて人手から対象物を取り出す計画実行手法を提案する。
論文 参考訳(メタデータ) (2020-03-12T19:58:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。