論文の概要: Non-invasive Cognitive-level Human Interfacing for the Robotic
Restoration of Reaching & Grasping
- arxiv url: http://arxiv.org/abs/2102.12980v1
- Date: Thu, 25 Feb 2021 16:32:04 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-26 13:45:16.457472
- Title: Non-invasive Cognitive-level Human Interfacing for the Robotic
Restoration of Reaching & Grasping
- Title(参考訳): 到達・把持ロボットのための非侵襲的認知レベルヒューマンインタフェース
- Authors: Ali Shafti and A. Aldo Faisal
- Abstract要約: 本稿では,人間の腕と指を動作させるロボットシステムを提案する。
ウェアラブルアイトラッキング、環境の視覚的コンテキスト、人間の行動の構造文法を組み合わせて、認知レベルの支援ロボットセットアップを作成します。
- 参考スコア(独自算出の注目度): 5.985098076571228
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Assistive and Wearable Robotics have the potential to support humans with
different types of motor impairments to become independent and fulfil their
activities of daily living successfully. The success of these robot systems,
however, relies on the ability to meaningfully decode human action intentions
and carry them out appropriately. Neural interfaces have been explored for use
in such system with several successes, however, they tend to be invasive and
require training periods in the order of months. We present a robotic system
for human augmentation, capable of actuating the user's arm and fingers for
them, effectively restoring the capability of reaching, grasping and
manipulating objects; controlled solely through the user's eye movements. We
combine wearable eye tracking, the visual context of the environment and the
structural grammar of human actions to create a cognitive-level assistive
robotic setup that enables the users in fulfilling activities of daily living,
while conserving interpretability, and the agency of the user. The interface is
worn, calibrated and ready to use within 5 minutes. Users learn to control and
make successful use of the system with an additional 5 minutes of interaction.
The system is tested with 5 healthy participants, showing an average success
rate of $96.6\%$ on first attempt across 6 tasks.
- Abstract(参考訳): Assistive and Wearable Roboticsは、さまざまなタイプの運動障害を持つ人間を支援して、自立し、日々の生活を成功させる可能性がある。
しかし、これらのロボットシステムの成功は、人間の行動意図を有意義に解読し、適切に実行する能力に依存している。
神経インターフェイスは、いくつかの成功例があるシステムでの使用のために研究されてきたが、侵襲的で、数ヶ月単位でトレーニング期間を必要とする傾向がある。
本研究では, 人の手と指を操作し, 物体に到達し, つかみ, 操作し, ユーザーの眼球運動のみで制御することのできる, 人間の増強のためのロボットシステムを提案する。
我々は,ウェアラブルアイトラッキング,環境の視覚的コンテキスト,人間の行動の構造的文法を組み合わせることで,対話性を維持しつつ,日常生活の活動を達成できる認知レベル支援ロボット装置と,ユーザエージェントとを組み合わせる。
インターフェースは摩耗し、校正され、5分以内に使用できます。
ユーザーは、追加の5分間のインタラクションでシステムを制御し、うまく利用することを学びます。
システムは5人の健康な参加者でテストされ、最初の6つのタスクでの平均成功率は96.6\%である。
関連論文リスト
- Human-Agent Joint Learning for Efficient Robot Manipulation Skill Acquisition [48.65867987106428]
本稿では,人間とロボットの協調学習システムについて紹介する。
これにより、ロボットエンドエフェクターの制御を学習支援エージェントと共有することができる。
これにより、ダウンストリームタスクにおいて、収集されたデータが十分な品質であることを保証しながら、人間の適応の必要性を減らすことができる。
論文 参考訳(メタデータ) (2024-06-29T03:37:29Z) - Dynamic Hand Gesture-Featured Human Motor Adaptation in Tool Delivery
using Voice Recognition [5.13619372598999]
本稿では,革新的なロボット協調フレームワークを提案する。
手の動きや動的動きの認識、音声認識、切り替え可能な制御適応戦略をシームレスに統合する。
ハンドジェスチャ認識における優れた性能を示す実験結果が得られた。
論文 参考訳(メタデータ) (2023-09-20T14:51:09Z) - Dexterous Manipulation from Images: Autonomous Real-World RL via Substep
Guidance [71.36749876465618]
本稿では,ユーザが新しいタスクを定義するための"プログラミング不要"なアプローチを提供する,視覚に基づくデクスタラスな操作システムについて述べる。
本システムには,最終タスクと中間タスクを画像例で定義するためのフレームワークが組み込まれている。
実世界における多段階物体操作の4指ロボットハンドラーによる実験結果
論文 参考訳(メタデータ) (2022-12-19T22:50:40Z) - Generalizable Human-Robot Collaborative Assembly Using Imitation
Learning and Force Control [17.270360447188196]
本稿では,実演から学び,ポーズ推定を用いたロボット協調組立システムを提案する。
提案システムでは, ロボット組立シナリオにおいて, 物理的6DoFマニピュレータを用いて実験を行った。
論文 参考訳(メタデータ) (2022-12-02T20:35:55Z) - Cognitive architecture aided by working-memory for self-supervised
multi-modal humans recognition [54.749127627191655]
人間パートナーを認識する能力は、パーソナライズされた長期的な人間とロボットの相互作用を構築するための重要な社会的スキルです。
ディープラーニングネットワークは最先端の結果を達成し,そのような課題に対処するための適切なツールであることが実証された。
1つの解決策は、ロボットに自己スーパービジョンで直接の感覚データから学習させることである。
論文 参考訳(メタデータ) (2021-03-16T13:50:24Z) - Show Me What You Can Do: Capability Calibration on Reachable Workspace
for Human-Robot Collaboration [83.4081612443128]
本稿では,REMPを用いた短時間キャリブレーションにより,ロボットが到達できると考える非専門家と地道とのギャップを効果的に埋めることができることを示す。
この校正手順は,ユーザ認識の向上だけでなく,人間とロボットのコラボレーションの効率化にも寄与することを示す。
論文 参考訳(メタデータ) (2021-03-06T09:14:30Z) - Careful with That! Observation of Human Movements to Estimate Objects
Properties [106.925705883949]
我々は、物体の重さについての洞察を伝える人間の運動行動の特徴に焦点を当てる。
最後の目標は、ロボットがオブジェクトハンドリングに必要なケアの度合いを自律的に推測できるようにすることです。
論文 参考訳(メタデータ) (2021-03-02T08:14:56Z) - Human Grasp Classification for Reactive Human-to-Robot Handovers [50.91803283297065]
本稿では,ロボットが人間に遭遇するロボットのハンドオーバに対するアプローチを提案する。
対象物をさまざまな手形やポーズで保持する典型的な方法をカバーする,人間の把握データセットを収集する。
本稿では,検出した把握位置と手の位置に応じて人手から対象物を取り出す計画実行手法を提案する。
論文 参考訳(メタデータ) (2020-03-12T19:58:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。