論文の概要: Augmented reality navigation system for visual prosthesis
- arxiv url: http://arxiv.org/abs/2109.14957v1
- Date: Thu, 30 Sep 2021 09:41:40 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-01 14:52:03.509385
- Title: Augmented reality navigation system for visual prosthesis
- Title(参考訳): 視覚補綴のための拡張現実ナビゲーションシステム
- Authors: Melani Sanchez-Garcia, Alejandro Perez-Yus, Ruben Martinez-Cantin,
Jose J. Guerrero
- Abstract要約: 反応ナビゲーションと経路計画のソフトウェアを組み込んだ視覚補綴用拡張現実ナビゲーションシステムを提案する。
対象を地図上に配置し、対象の軌道を計画し、対象に示し、障害なく再計画する。
その結果,目標を達成するための時間と距離を減らし,障害物衝突の回数を大幅に減らし,航法性能の向上を図っている。
- 参考スコア(独自算出の注目度): 67.09251544230744
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The visual functions of visual prostheses such as field of view, resolution
and dynamic range, seriously restrict the person's ability to navigate in
unknown environments. Implanted patients still require constant assistance for
navigating from one location to another. Hence, there is a need for a system
that is able to assist them safely during their journey. In this work, we
propose an augmented reality navigation system for visual prosthesis that
incorporates a software of reactive navigation and path planning which guides
the subject through convenient, obstacle-free route. It consists on four steps:
locating the subject on a map, planning the subject trajectory, showing it to
the subject and re-planning without obstacles. We have also designed a
simulated prosthetic vision environment which allows us to systematically study
navigation performance. Twelve subjects participated in the experiment.
Subjects were guided by the augmented reality navigation system and their
instruction was to navigate through different environments until they reached
two goals, cross the door and find an object (bin), as fast and accurately as
possible. Results show how our augmented navigation system help navigation
performance by reducing the time and distance to reach the goals, even
significantly reducing the number of obstacles collisions, compared to other
baseline methods.
- Abstract(参考訳): 視野、解像度、ダイナミックレンジなどの視覚的補綴物の視覚機能は、未知の環境でナビゲートする人の能力を著しく制限する。
インプラント患者は、ある場所から別の場所への移動に常に補助を必要としている。
したがって、旅行中に安全に彼らを支援できるシステムが必要である。
本研究では,視覚補綴物のための拡張現実ナビゲーションシステムを提案する。このシステムには,簡便で障害物のない経路を案内する,リアクティブナビゲーションと経路計画のソフトウェアが組み込まれている。
地図上の対象の特定、対象の軌道計画、対象への表示、障害物のない再計画の4つのステップから成り立っている。
また,ナビゲーション性能をシミュレートした人工視覚環境も設計した。
12人が実験に参加した。
被験者は拡張現実ナビゲーションシステムによって誘導され、その指示は、2つの目標に達するまで異なる環境をナビゲートし、ドアを渡り、できるだけ速く正確に物体(ビン)を見つけることであった。
その結果,目標達成までの時間と距離を削減し,他のベースライン手法と比較して障害物の衝突数を著しく削減し,ナビゲーション性能を向上させることができた。
関連論文リスト
- Visuospatial navigation without distance, prediction, or maps [1.3812010983144802]
従来の視覚ナビゲーションタスクにおいて,最小限のフィードフォワードフレームワークの有効性を示す。
視覚的距離は目標への直接的軌跡を可能にするが、2つの異なるアルゴリズムは視覚的角度だけで頑健にナビゲートするように開発されている。
それぞれに独特の文脈的トレードオフが与えられ、げっ歯類、昆虫、魚、精子で観察される運動行動と一致している。
論文 参考訳(メタデータ) (2024-07-18T14:07:44Z) - TOP-Nav: Legged Navigation Integrating Terrain, Obstacle and Proprioception Estimation [5.484041860401147]
TOP-Navは、包括的パスプランナーとTerran認識、Obstacle回避、クローズループプロプライオセプションを統合した、新しい脚付きナビゲーションフレームワークである。
そこで,TOP-Navは,従来の知識の分布を超えた地形や乱れをロボットが扱えるように,オープンワールドナビゲーションを実現する。
論文 参考訳(メタデータ) (2024-04-23T17:42:45Z) - Floor extraction and door detection for visually impaired guidance [78.94595951597344]
未知の環境で障害物のない経路を見つけることは、視覚障害者や自律ロボットにとって大きなナビゲーション問題である。
コンピュータビジョンシステムに基づく新しいデバイスは、障害のある人が安全な環境で未知の環境でナビゲートすることの難しさを克服するのに役立つ。
本研究では,視覚障害者のためのナビゲーションシステムの構築につながるセンサとアルゴリズムの組み合わせを提案する。
論文 参考訳(メタデータ) (2024-01-30T14:38:43Z) - Learning Navigational Visual Representations with Semantic Map
Supervision [85.91625020847358]
エージェントの自我中心のビューとセマンティックマップを対比してナビゲーション固有の視覚表現学習法を提案する。
Ego$2$-Map学習は、オブジェクト、構造、遷移などのコンパクトでリッチな情報を、ナビゲーションのためのエージェントのエゴセントリックな表現に転送する。
論文 参考訳(メタデータ) (2023-07-23T14:01:05Z) - Real-time Vision-based Navigation for a Robot in an Indoor Environment [0.0]
このシステムは、視覚に基づく技術と高度な経路計画アルゴリズムを利用して、障害物を避けながらロボットが目的地に向かって移動できるようにする。
この知見は、屋内ロボットナビゲーションの進歩に寄与し、リアルタイムで自律的なナビゲーションのための視覚ベースの技術の可能性を示している。
論文 参考訳(メタデータ) (2023-07-02T21:01:56Z) - Detect and Approach: Close-Range Navigation Support for People with
Blindness and Low Vision [13.478275180547925]
視力と視力の低い人(pBLV)は、最終目的地の特定や、不慣れな環境で特定の対象を狙う際に重大な課題を経験する。
本研究では,ユーザの関心対象物へのアプローチを,不慣れな環境下で効果的かつ効率的に行うためのリアルタイムガイダンスを提供する,新しいウェアラブルナビゲーションソリューションを開発した。
論文 参考訳(メタデータ) (2022-08-17T18:38:20Z) - Explore before Moving: A Feasible Path Estimation and Memory Recalling
Framework for Embodied Navigation [117.26891277593205]
ナビゲーションに焦点をあて,経験や常識に欠ける既存のナビゲーションアルゴリズムの問題を解決する。
移動前に2回思考する能力に触発されて、不慣れな場面で目標を追求する実現可能な経路を考案し、パス推定とメモリリコールフレームワークと呼ばれる経路計画手法を提案する。
EmbodiedQAナビゲーションタスクにおけるPEMRの強力な実験結果を示す。
論文 参考訳(メタデータ) (2021-10-16T13:30:55Z) - Deep Learning for Embodied Vision Navigation: A Survey [108.13766213265069]
身体的視覚ナビゲーション」問題では、エージェントが3D環境をナビゲートする必要がある。
本稿では、総合的な文献調査を提供することで、視覚ナビゲーションの具体的分野における現在の研究の概要を確立することを試みる。
論文 参考訳(メタデータ) (2021-07-07T12:09:04Z) - Active Visual Information Gathering for Vision-Language Navigation [115.40768457718325]
視覚言語ナビゲーション(VLN)は、エージェントがフォトリアリスティックな環境の中でナビゲーションの指示を行うためのタスクである。
VLNの重要な課題の1つは、曖昧な指示による不確実性を緩和し、環境の観察を不十分にすることで、堅牢なナビゲーションを行う方法である。
この研究は、人間のナビゲーション行動からインスピレーションを得て、よりインテリジェントなVLNポリシーのためのアクティブな情報収集能力を持つエージェントを提供する。
論文 参考訳(メタデータ) (2020-07-15T23:54:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。