論文の概要: Gaze-contingent decoding of human navigation intention on an autonomous
wheelchair platform
- arxiv url: http://arxiv.org/abs/2103.03072v1
- Date: Thu, 4 Mar 2021 14:52:06 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-05 14:45:37.860579
- Title: Gaze-contingent decoding of human navigation intention on an autonomous
wheelchair platform
- Title(参考訳): 自律車いすプラットフォームにおける人間のナビゲーション意図の視線一致復号
- Authors: Mahendran Subramanian, Suhyung Park, Pavel Orlov, Ali Shafti, A. Aldo
Faisal
- Abstract要約: We have developed the Where-You-Look-Is Where-You-Go approach to control mobile platform。
我々は,1. 深いコンピュータビジョンを用いて,ユーザが視点で何を見ているのかを理解する新しいソリューションを提案する。
私たちのデコードシステムは最終的に、ユーザーがドアなどへ運転したいかどうかを判断するか、単にそれを見るかを決定します。
- 参考スコア(独自算出の注目度): 6.646253877148766
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We have pioneered the Where-You-Look-Is Where-You-Go approach to controlling
mobility platforms by decoding how the user looks at the environment to
understand where they want to navigate their mobility device. However, many
natural eye-movements are not relevant for action intention decoding, only some
are, which places a challenge on decoding, the so-called Midas Touch Problem.
Here, we present a new solution, consisting of 1. deep computer vision to
understand what object a user is looking at in their field of view, with 2. an
analysis of where on the object's bounding box the user is looking, to 3. use a
simple machine learning classifier to determine whether the overt visual
attention on the object is predictive of a navigation intention to that object.
Our decoding system ultimately determines whether the user wants to drive to
e.g., a door or just looks at it. Crucially, we find that when users look at an
object and imagine they were moving towards it, the resulting eye-movements
from this motor imagery (akin to neural interfaces) remain decodable. Once a
driving intention and thus also the location is detected our system instructs
our autonomous wheelchair platform, the A.Eye-Drive, to navigate to the desired
object while avoiding static and moving obstacles. Thus, for navigation
purposes, we have realised a cognitive-level human interface, as it requires
the user only to cognitively interact with the desired goal, not to
continuously steer their wheelchair to the target (low-level human
interfacing).
- Abstract(参考訳): 我々は,モビリティ・デバイスのナビゲートの目的を理解するために,ユーザが環境をどのように見ているかをデコードすることで,モビリティ・プラットフォームを制御するためのwhere-you-look-is where-you-goアプローチの先駆者となった。
しかし、多くの自然眼球運動は行動意図のデコードとは無関係であり、midas touch問題と呼ばれるデコードに挑戦する者もいる。
本稿では,1. 深部コンピュータビジョンを用いて,ユーザが自分の視野で何を見ているのかを理解し,2. ユーザが見ている対象のバウンディングボックスのどこにあるのかを分析し,3. 単純な機械学習分類器を用いて,対象に対する視覚上の注意がその対象へのナビゲーション意図の予測であるかどうかを判断する。
私たちのデコードシステムは最終的に、ユーザーがドアなどへ運転したいかどうかを判断するか、単にそれを見るかを決定します。
重要なのは、ユーザーがオブジェクトを見て、それに向かって動いていることを想像すると、このモーターイメージ(神経インターフェイスと同様)から得られる目の動きはデコダラブルのままであることだ。
運転意図と位置を検知すると、自動車椅子プラットフォームであるA.Eye-Driveに、静的で移動中の障害物を避けながら、所望の物体への移動を指示する。
したがって,ナビゲーションのためには,車いすを目標(低レベルヒューマンインタフェース)に継続的に操るのではなく,目的と認知的にインタラクションすることのみを必要とする認知レベルのヒューマンインタフェースを実現する。
関連論文リスト
- CoNav: A Benchmark for Human-Centered Collaborative Navigation [66.6268966718022]
協調ナビゲーション(CoNav)ベンチマークを提案する。
われわれのCoNavは、現実的で多様な人間の活動を伴う3Dナビゲーション環境を構築するという重要な課題に取り組む。
本研究では,長期的意図と短期的意図の両方を推論する意図認識エージェントを提案する。
論文 参考訳(メタデータ) (2024-06-04T15:44:25Z) - Latent Object Characteristics Recognition with Visual to Haptic-Audio Cross-modal Transfer Learning [9.178588671620963]
この研究は、潜伏する観測不可能なオブジェクトの特性を認識することを目的としている。
視覚は一般的にロボットによる物体認識に使われるが、隠された物体を検出するには効果がない。
本稿では,視覚から触覚へのクロスモーダル・トランスファー学習手法を提案する。
論文 参考訳(メタデータ) (2024-03-15T21:18:14Z) - Floor extraction and door detection for visually impaired guidance [78.94595951597344]
未知の環境で障害物のない経路を見つけることは、視覚障害者や自律ロボットにとって大きなナビゲーション問題である。
コンピュータビジョンシステムに基づく新しいデバイスは、障害のある人が安全な環境で未知の環境でナビゲートすることの難しさを克服するのに役立つ。
本研究では,視覚障害者のためのナビゲーションシステムの構築につながるセンサとアルゴリズムの組み合わせを提案する。
論文 参考訳(メタデータ) (2024-01-30T14:38:43Z) - Object Recognition System on a Tactile Device for Visually Impaired [1.2891210250935146]
このデバイスは、視覚情報を聴覚フィードバックに変換し、ユーザが自分の環境を、感覚的なニーズに合った形で理解できるようにする。
装置が特定の位置にタッチされると、シーンに存在する物体の識別を視覚障害者に伝える音声信号を提供する。
論文 参考訳(メタデータ) (2023-07-05T11:37:17Z) - DetGPT: Detect What You Need via Reasoning [33.00345609506097]
我々は、推論に基づくオブジェクト検出と呼ばれる、オブジェクト検出のための新しいパラダイムを導入する。
特定のオブジェクト名に依存する従来のオブジェクト検出方法とは異なり,本手法では自然言語命令を用いてシステムと対話することが可能である。
提案手法はDetGPTと呼ばれ,最先端のマルチモーダルモデルとオープンボキャブラリオブジェクト検出器を利用する。
論文 参考訳(メタデータ) (2023-05-23T15:37:28Z) - Gesture2Path: Imitation Learning for Gesture-aware Navigation [54.570943577423094]
Gesture2Pathは、画像に基づく模倣学習とモデル予測制御を組み合わせた新しいソーシャルナビゲーション手法である。
実際のロボットに本手法をデプロイし,4つのジェスチャーナビゲーションシナリオに対するアプローチの有効性を示す。
論文 参考訳(メタデータ) (2022-09-19T23:05:36Z) - Detect and Approach: Close-Range Navigation Support for People with
Blindness and Low Vision [13.478275180547925]
視力と視力の低い人(pBLV)は、最終目的地の特定や、不慣れな環境で特定の対象を狙う際に重大な課題を経験する。
本研究では,ユーザの関心対象物へのアプローチを,不慣れな環境下で効果的かつ効率的に行うためのリアルタイムガイダンスを提供する,新しいウェアラブルナビゲーションソリューションを開発した。
論文 参考訳(メタデータ) (2022-08-17T18:38:20Z) - Augmented reality navigation system for visual prosthesis [67.09251544230744]
反応ナビゲーションと経路計画のソフトウェアを組み込んだ視覚補綴用拡張現実ナビゲーションシステムを提案する。
対象を地図上に配置し、対象の軌道を計画し、対象に示し、障害なく再計画する。
その結果,目標を達成するための時間と距離を減らし,障害物衝突の回数を大幅に減らし,航法性能の向上を図っている。
論文 参考訳(メタデータ) (2021-09-30T09:41:40Z) - Pushing it out of the Way: Interactive Visual Navigation [62.296686176988125]
エージェントが目標に合わせてより効率的にナビゲートするために環境を変更することを学ぶインタラクティブナビゲーションの問題を研究します。
エージェントの行動によって引き起こされる環境の変化を明示的に予測するために,neural interaction engine(nie)を導入する。
計画中の変更をモデル化することで、エージェントがナビゲーション能力を大幅に改善できることが分かりました。
論文 参考訳(メタデータ) (2021-04-28T22:46:41Z) - Careful with That! Observation of Human Movements to Estimate Objects
Properties [106.925705883949]
我々は、物体の重さについての洞察を伝える人間の運動行動の特徴に焦点を当てる。
最後の目標は、ロボットがオブジェクトハンドリングに必要なケアの度合いを自律的に推測できるようにすることです。
論文 参考訳(メタデータ) (2021-03-02T08:14:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。