論文の概要: Detect and Approach: Close-Range Navigation Support for People with
Blindness and Low Vision
- arxiv url: http://arxiv.org/abs/2208.08477v1
- Date: Wed, 17 Aug 2022 18:38:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-19 13:34:33.547550
- Title: Detect and Approach: Close-Range Navigation Support for People with
Blindness and Low Vision
- Title(参考訳): 視覚障害者のための近距離ナビゲーション支援 : 検出とアプローチ
- Authors: Yu Hao, Junchi Feng, John-Ross Rizzo, Yao Wang, Yi Fang
- Abstract要約: 視力と視力の低い人(pBLV)は、最終目的地の特定や、不慣れな環境で特定の対象を狙う際に重大な課題を経験する。
本研究では,ユーザの関心対象物へのアプローチを,不慣れな環境下で効果的かつ効率的に行うためのリアルタイムガイダンスを提供する,新しいウェアラブルナビゲーションソリューションを開発した。
- 参考スコア(独自算出の注目度): 13.478275180547925
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: People with blindness and low vision (pBLV) experience significant challenges
when locating final destinations or targeting specific objects in unfamiliar
environments. Furthermore, besides initially locating and orienting oneself to
a target object, approaching the final target from one's present position is
often frustrating and challenging, especially when one drifts away from the
initial planned path to avoid obstacles. In this paper, we develop a novel
wearable navigation solution to provide real-time guidance for a user to
approach a target object of interest efficiently and effectively in unfamiliar
environments. Our system contains two key visual computing functions: initial
target object localization in 3D and continuous estimation of the user's
trajectory, both based on the 2D video captured by a low-cost monocular camera
mounted on in front of the chest of the user. These functions enable the system
to suggest an initial navigation path, continuously update the path as the user
moves, and offer timely recommendation about the correction of the user's path.
Our experiments demonstrate that our system is able to operate with an error of
less than 0.5 meter both outdoor and indoor. The system is entirely
vision-based and does not need other sensors for navigation, and the
computation can be run with the Jetson processor in the wearable system to
facilitate real-time navigation assistance.
- Abstract(参考訳): 視力と視力の低い人(pBLV)は、最終目的地の特定や、不慣れな環境で特定の対象を狙う際に重大な課題を経験する。
さらに、まず目標物への位置決めや向き付けに加えて、現在の位置から最終目標に近づくことは、特に障害物を避けるために当初の計画された経路から離れるときに、しばしばイライラし、挑戦する。
本稿では,ユーザの興味の対象物へのアプローチを,不慣れな環境下で効率的に効果的に行うためのリアルタイムガイダンスを提供する,新しいウェアラブルナビゲーションソリューションを開発する。
本システムには,3次元の目標物体位置定位とユーザの軌道の連続推定という2つの重要な視覚的コンピューティング機能が含まれており,どちらも,ユーザの胸部に装着した低コストのモノクロカメラによって撮影された2Dビデオに基づいている。
これらの機能により、システムは初期ナビゲーションパスを提案でき、ユーザが移動すると経路を継続的に更新し、ユーザの経路の修正についてタイムリーに推奨することができる。
実験により,本システムは屋外と屋内の両方で0.5メートル未満の誤差で動作できることを実証した。
システムは完全に視覚ベースであり、ナビゲーションのための他のセンサーは必要とせず、計算はウェアラブルシステム内のJetsonプロセッサで実行し、リアルタイムナビゲーション支援を容易にする。
関連論文リスト
- TOP-Nav: Legged Navigation Integrating Terrain, Obstacle and Proprioception Estimation [5.484041860401147]
TOP-Navは、包括的パスプランナーとTerran認識、Obstacle回避、クローズループプロプライオセプションを統合した、新しい脚付きナビゲーションフレームワークである。
そこで,TOP-Navは,従来の知識の分布を超えた地形や乱れをロボットが扱えるように,オープンワールドナビゲーションを実現する。
論文 参考訳(メタデータ) (2024-04-23T17:42:45Z) - Floor extraction and door detection for visually impaired guidance [78.94595951597344]
未知の環境で障害物のない経路を見つけることは、視覚障害者や自律ロボットにとって大きなナビゲーション問題である。
コンピュータビジョンシステムに基づく新しいデバイスは、障害のある人が安全な環境で未知の環境でナビゲートすることの難しさを克服するのに役立つ。
本研究では,視覚障害者のためのナビゲーションシステムの構築につながるセンサとアルゴリズムの組み合わせを提案する。
論文 参考訳(メタデータ) (2024-01-30T14:38:43Z) - ETPNav: Evolving Topological Planning for Vision-Language Navigation in
Continuous Environments [56.194988818341976]
視覚言語ナビゲーションは、エージェントが環境中をナビゲートするための指示に従う必要があるタスクである。
本研究では,1)環境を抽象化し,長距離航法計画を生成する能力,2)連続環境における障害物回避制御能力の2つの重要なスキルに焦点を当てたETPNavを提案する。
ETPNavは、R2R-CEとRxR-CEデータセットの先行技術よりも10%以上、20%改善されている。
論文 参考訳(メタデータ) (2023-04-06T13:07:17Z) - UNav: An Infrastructure-Independent Vision-Based Navigation System for
People with Blindness and Low vision [4.128685217530067]
視覚障害者のためのナビゲーション支援のための視覚に基づくローカライゼーションパイプラインを提案する。
モバイルアプリケーション上でエンドユーザが取得したクエリ画像に対して、パイプラインは視覚的位置認識(VPR)アルゴリズムを活用して、参照画像データベースで類似した画像を見つける。
カスタマイズされたユーザインタフェースは、一連の画像から構築された3D再構成されたスパースマップを、対応する2Dフロアプランに投影する。
論文 参考訳(メタデータ) (2022-09-22T22:21:37Z) - ViKiNG: Vision-Based Kilometer-Scale Navigation with Geographic Hints [94.60414567852536]
長距離航法には、計画と局所的な移動可能性の推論の両方が必要である。
学習と計画を統合する学習に基づくアプローチを提案する。
ViKiNGは、画像ベースの学習コントローラを利用できる。
論文 参考訳(メタデータ) (2022-02-23T02:14:23Z) - Explore before Moving: A Feasible Path Estimation and Memory Recalling
Framework for Embodied Navigation [117.26891277593205]
ナビゲーションに焦点をあて,経験や常識に欠ける既存のナビゲーションアルゴリズムの問題を解決する。
移動前に2回思考する能力に触発されて、不慣れな場面で目標を追求する実現可能な経路を考案し、パス推定とメモリリコールフレームワークと呼ばれる経路計画手法を提案する。
EmbodiedQAナビゲーションタスクにおけるPEMRの強力な実験結果を示す。
論文 参考訳(メタデータ) (2021-10-16T13:30:55Z) - Augmented reality navigation system for visual prosthesis [67.09251544230744]
反応ナビゲーションと経路計画のソフトウェアを組み込んだ視覚補綴用拡張現実ナビゲーションシステムを提案する。
対象を地図上に配置し、対象の軌道を計画し、対象に示し、障害なく再計画する。
その結果,目標を達成するための時間と距離を減らし,障害物衝突の回数を大幅に減らし,航法性能の向上を図っている。
論文 参考訳(メタデータ) (2021-09-30T09:41:40Z) - Pushing it out of the Way: Interactive Visual Navigation [62.296686176988125]
エージェントが目標に合わせてより効率的にナビゲートするために環境を変更することを学ぶインタラクティブナビゲーションの問題を研究します。
エージェントの行動によって引き起こされる環境の変化を明示的に予測するために,neural interaction engine(nie)を導入する。
計画中の変更をモデル化することで、エージェントがナビゲーション能力を大幅に改善できることが分かりました。
論文 参考訳(メタデータ) (2021-04-28T22:46:41Z) - Gaze-contingent decoding of human navigation intention on an autonomous
wheelchair platform [6.646253877148766]
We have developed the Where-You-Look-Is Where-You-Go approach to control mobile platform。
我々は,1. 深いコンピュータビジョンを用いて,ユーザが視点で何を見ているのかを理解する新しいソリューションを提案する。
私たちのデコードシステムは最終的に、ユーザーがドアなどへ運転したいかどうかを判断するか、単にそれを見るかを決定します。
論文 参考訳(メタデータ) (2021-03-04T14:52:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。