論文の概要: NaVIP: An Image-Centric Indoor Navigation Solution for Visually Impaired People
- arxiv url: http://arxiv.org/abs/2410.18109v1
- Date: Tue, 08 Oct 2024 21:16:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-27 05:40:52.475660
- Title: NaVIP: An Image-Centric Indoor Navigation Solution for Visually Impaired People
- Title(参考訳): NaVIP:視覚障害者のための画像中心の室内ナビゲーションソリューション
- Authors: Jun Yu, Yifan Zhang, Badrinadh Aila, Vinod Namboodiri,
- Abstract要約: NaVIPは、包括性のための画像中心の屋内ナビゲーションと探索ソリューションを作ることを目指している。
まずは、大規模な携帯電話のカメラデータを、300K画像の4フロアの研究棟でキュレートすることから始めます。
すべての画像には、正確な6DoFカメラのポーズ、屋内のPoIの詳細、説明的なキャプションがラベル付けされている。
- 参考スコア(独自算出の注目度): 12.230718190579724
- License:
- Abstract: Indoor navigation is challenging due to the absence of satellite positioning. This challenge is manifold greater for Visually Impaired People (VIPs) who lack the ability to get information from wayfinding signage. Other sensor signals (e.g., Bluetooth and LiDAR) can be used to create turn-by-turn navigation solutions with position updates for users. Unfortunately, these solutions require tags to be installed all around the environment or the use of fairly expensive hardware. Moreover, these solutions require a high degree of manual involvement that raises costs, thus hampering scalability. We propose an image dataset and associated image-centric solution called NaVIP towards visual intelligence that is infrastructure-free and task-scalable, and can assist VIPs in understanding their surroundings. Specifically, we start by curating large-scale phone camera data in a four-floor research building, with 300K images, to lay the foundation for creating an image-centric indoor navigation and exploration solution for inclusiveness. Every image is labelled with precise 6DoF camera poses, details of indoor PoIs, and descriptive captions to assist VIPs. We benchmark on two main aspects: 1) positioning system and 2) exploration support, prioritizing training scalability and real-time inference, to validate the prospect of image-based solution towards indoor navigation. The dataset, code, and model checkpoints are made publicly available at https://github.com/junfish/VIP_Navi.
- Abstract(参考訳): 衛星測位がないため、屋内ナビゲーションは困難である。
この課題は、ウェイフィンディングのサインから情報を得る能力に欠ける視覚障害者(VIP)にとってずっと大きい。
その他のセンサー信号(例えばBluetoothやLiDAR)を使ってターンバイターンのナビゲーションソリューションを作成し、ユーザーの位置を更新することができる。
残念ながら、これらのソリューションは、環境全体やかなり高価なハードウェアの使用にタグをインストールする必要がある。
さらに、これらのソリューションは高い手作業による関与を必要とし、コストを上昇させ、スケーラビリティを損なう。
我々は、インフラストラクチャフリーでタスクスケーリング可能な視覚知能に対して、画像データセットとそれに関連するイメージ中心のソリューションNaVIPを提案し、VIPが周囲を理解するのを支援する。
具体的には、300K画像の4フロアの研究棟で、大規模な携帯電話カメラデータをキュレートして、画像中心の屋内ナビゲーションと包括性のための探索ソリューションを構築するための基礎を築いた。
すべての画像には正確な6DoFカメラのポーズ、屋内のPoIの詳細、VIPを支援するための説明的なキャプションがラベル付けされている。
主要な2つの側面をベンチマークします。
1)位置決めシステムと
2)屋内ナビゲーションへのイメージベースソリューションの展望を検証するため,トレーニングのスケーラビリティとリアルタイム推論を優先した探索支援を行う。
データセット、コード、モデルチェックポイントはhttps://github.com/junfish/VIP_Naviで公開されている。
関連論文リスト
- Floor extraction and door detection for visually impaired guidance [78.94595951597344]
未知の環境で障害物のない経路を見つけることは、視覚障害者や自律ロボットにとって大きなナビゲーション問題である。
コンピュータビジョンシステムに基づく新しいデバイスは、障害のある人が安全な環境で未知の環境でナビゲートすることの難しさを克服するのに役立つ。
本研究では,視覚障害者のためのナビゲーションシステムの構築につながるセンサとアルゴリズムの組み合わせを提案する。
論文 参考訳(メタデータ) (2024-01-30T14:38:43Z) - Long-term Visual Localization with Mobile Sensors [30.839849072256435]
そこで本稿では,GPS,コンパス,重力センサなどの携帯端末にセンサを追加することで,この課題を解決することを提案する。
また,最初のポーズで直接2D-3Dマッチングネットワークを考案し,効率的に2D-3D対応を確立できる。
提案手法といくつかの最先端ベースラインをベンチマークし,提案手法の有効性を実証する。
論文 参考訳(メタデータ) (2023-04-16T04:35:10Z) - DRISHTI: Visual Navigation Assistant for Visually Impaired [0.0]
盲目で視覚障害者(BVI)は、自分の環境に関する情報を手動で支援する必要があるため、課題に直面します。
この研究で我々は、安価で高性能なアイウェアアシストデバイスDRISHTIの開発に向けて、最初の一歩を踏み出した。
論文 参考訳(メタデータ) (2023-03-13T20:10:44Z) - Camera-Radar Perception for Autonomous Vehicles and ADAS: Concepts,
Datasets and Metrics [77.34726150561087]
本研究の目的は、ADASおよび自動運転車のカメラおよびレーダーによる認識の現在のシナリオに関する研究を行うことである。
両センサと融合に関する概念と特徴を提示する。
本稿では、ディープラーニングに基づく検出とセグメンテーションタスクの概要と、車両の認識における主要なデータセット、メトリクス、課題、オープンな質問について説明する。
論文 参考訳(メタデータ) (2023-03-08T00:48:32Z) - Detect and Approach: Close-Range Navigation Support for People with
Blindness and Low Vision [13.478275180547925]
視力と視力の低い人(pBLV)は、最終目的地の特定や、不慣れな環境で特定の対象を狙う際に重大な課題を経験する。
本研究では,ユーザの関心対象物へのアプローチを,不慣れな環境下で効果的かつ効率的に行うためのリアルタイムガイダンスを提供する,新しいウェアラブルナビゲーションソリューションを開発した。
論文 参考訳(メタデータ) (2022-08-17T18:38:20Z) - VPAIR -- Aerial Visual Place Recognition and Localization in Large-scale
Outdoor Environments [49.82314641876602]
VPAIRという新しいデータセットを提示します。
データセットは地上300メートル以上の高度で飛行する軽航空機に記録されている。
このデータセットは、様々なタイプの挑戦的な風景を、100km以上にわたってカバーしている。
論文 参考訳(メタデータ) (2022-05-23T18:50:08Z) - Augmented reality navigation system for visual prosthesis [67.09251544230744]
反応ナビゲーションと経路計画のソフトウェアを組み込んだ視覚補綴用拡張現実ナビゲーションシステムを提案する。
対象を地図上に配置し、対象の軌道を計画し、対象に示し、障害なく再計画する。
その結果,目標を達成するための時間と距離を減らし,障害物衝突の回数を大幅に減らし,航法性能の向上を図っている。
論文 参考訳(メタデータ) (2021-09-30T09:41:40Z) - Deep Learning for Embodied Vision Navigation: A Survey [108.13766213265069]
身体的視覚ナビゲーション」問題では、エージェントが3D環境をナビゲートする必要がある。
本稿では、総合的な文献調査を提供することで、視覚ナビゲーションの具体的分野における現在の研究の概要を確立することを試みる。
論文 参考訳(メタデータ) (2021-07-07T12:09:04Z) - Active Visual Information Gathering for Vision-Language Navigation [115.40768457718325]
視覚言語ナビゲーション(VLN)は、エージェントがフォトリアリスティックな環境の中でナビゲーションの指示を行うためのタスクである。
VLNの重要な課題の1つは、曖昧な指示による不確実性を緩和し、環境の観察を不十分にすることで、堅牢なナビゲーションを行う方法である。
この研究は、人間のナビゲーション行動からインスピレーションを得て、よりインテリジェントなVLNポリシーのためのアクティブな情報収集能力を持つエージェントを提供する。
論文 参考訳(メタデータ) (2020-07-15T23:54:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。