論文の概要: UNav: An Infrastructure-Independent Vision-Based Navigation System for
People with Blindness and Low vision
- arxiv url: http://arxiv.org/abs/2209.11336v1
- Date: Thu, 22 Sep 2022 22:21:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-26 16:41:56.341524
- Title: UNav: An Infrastructure-Independent Vision-Based Navigation System for
People with Blindness and Low vision
- Title(参考訳): UNav: 盲人・低視力者のためのインフラストラクチャ非依存型視覚ベースナビゲーションシステム
- Authors: Anbang Yang, Mahya Beheshti, Todd E Hudson, Rajesh Vedanthan, Wachara
Riewpaiboon, Pattanasak Mongkolwat, Chen Feng and John-Ross Rizzo
- Abstract要約: 視覚障害者のためのナビゲーション支援のための視覚に基づくローカライゼーションパイプラインを提案する。
モバイルアプリケーション上でエンドユーザが取得したクエリ画像に対して、パイプラインは視覚的位置認識(VPR)アルゴリズムを活用して、参照画像データベースで類似した画像を見つける。
カスタマイズされたユーザインタフェースは、一連の画像から構築された3D再構成されたスパースマップを、対応する2Dフロアプランに投影する。
- 参考スコア(独自算出の注目度): 4.128685217530067
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Vision-based localization approaches now underpin newly emerging navigation
pipelines for myriad use cases from robotics to assistive technologies.
Compared to sensor-based solutions, vision-based localization does not require
pre-installed sensor infrastructure, which is costly, time-consuming, and/or
often infeasible at scale. Herein, we propose a novel vision-based localization
pipeline for a specific use case: navigation support for end-users with
blindness and low vision. Given a query image taken by an end-user on a mobile
application, the pipeline leverages a visual place recognition (VPR) algorithm
to find similar images in a reference image database of the target space. The
geolocations of these similar images are utilized in downstream tasks that
employ a weighted-average method to estimate the end-user's location and a
perspective-n-point (PnP) algorithm to estimate the end-user's direction.
Additionally, this system implements Dijkstra's algorithm to calculate a
shortest path based on a navigable map that includes trip origin and
destination. The topometric map used for localization and navigation is built
using a customized graphical user interface that projects a 3D reconstructed
sparse map, built from a sequence of images, to the corresponding a priori 2D
floor plan. Sequential images used for map construction can be collected in a
pre-mapping step or scavenged through public databases/citizen science. The
end-to-end system can be installed on any internet-accessible device with a
camera that hosts a custom mobile application. For evaluation purposes, mapping
and localization were tested in a complex hospital environment. The evaluation
results demonstrate that our system can achieve localization with an average
error of less than 1 meter without knowledge of the camera's intrinsic
parameters, such as focal length.
- Abstract(参考訳): 視覚ベースのローカライズアプローチは、ロボティクスからアシスト技術に至るまで、無数のユースケースで新たに出現するナビゲーションパイプラインの基盤となっている。
センサーベースのソリューションと比較して、ビジョンベースのローカライズには事前にインストールされたセンサーインフラストラクチャを必要としない。
本稿では,視覚障害者のためのナビゲーション支援という,視覚に基づく特定のユースケースのための新しいローカライゼーションパイプラインを提案する。
モバイルアプリケーション上でエンドユーザが取得したクエリ画像に対して、パイプラインは視覚的位置認識(VPR)アルゴリズムを利用して、ターゲット空間の参照画像データベースに類似した画像を見つける。
これらの類似画像の位置情報は、重み付き平均法を用いてエンドユーザーの位置を推定する下流タスクと、エンドユーザーの方向を推定するパースペクティブnポイント(pnp)アルゴリズムで利用される。
さらに、旅先と目的地を含むナビゲーション可能な地図に基づいて最短経路を計算するために、Dijkstraのアルゴリズムを実装した。
ローカライゼーションとナビゲーションに使用されるトポロジカルマップは、画像列から構築された3D再構成スパースマップを、対応する2Dフロアプランに投影するカスタマイズされたグラフィカルユーザインタフェースを用いて構築される。
マップ構築に使用されるシーケンスイメージは、事前マッピングステップで収集したり、パブリックデータベースや市民科学を通じて収集することができる。
エンド・ツー・エンドのシステムは、カスタムモバイルアプリケーションをホストするカメラを備えたインターネットアクセス可能なデバイスにインストールすることができる。
評価目的では,複雑な病院環境においてマッピングと局所化が検討された。
評価結果は,焦点距離などのカメラ固有のパラメータを知らずに,平均誤差が1m未満で局所化できることを示す。
関連論文リスト
- Landmark-based Localization using Stereo Vision and Deep Learning in
GPS-Denied Battlefield Environment [1.19658449368018]
本稿では、受動カメラセンサのみを用いた非GPS戦場環境におけるローカライズのための新しいフレームワークを提案する。
提案手法では,距離推定にカスタムキャリブレーションされたステレオカメラと,実世界のランドマーク認識のためのデータセットを用いて訓練および微調整を行うYOLOv8sモデルを用いる。
実験の結果,提案手法は既存のアンカーベースDV-Hopアルゴリズムよりも優れた性能を示し,ローカライゼーション誤差(RMSE)の点で最も効率的な視覚ベースアルゴリズムと競合することがわかった。
論文 参考訳(メタデータ) (2024-02-19T21:20:56Z) - DisPlacing Objects: Improving Dynamic Vehicle Detection via Visual Place
Recognition under Adverse Conditions [29.828201168816243]
本研究では,3次元マップを必要とせずに,シーン内の動的物体の検出を支援するために,先行マップを活用できるかどうかを検討する。
提案手法は,対象物検出の初期セットを洗練し,事前マップを用いて高精度な検出のサブセットを生成するアルゴリズムである。
論文 参考訳(メタデータ) (2023-06-30T10:46:51Z) - Neural Implicit Dense Semantic SLAM [83.04331351572277]
本稿では,屋内シーンのメモリ効率,高密度な3次元形状,セマンティックセマンティックセグメンテーションをオンラインで学習する新しいRGBD vSLAMアルゴリズムを提案する。
私たちのパイプラインは、従来の3Dビジョンベースのトラッキングとループクローズとニューラルフィールドベースのマッピングを組み合わせたものです。
提案アルゴリズムはシーン認識を大幅に向上させ,様々なロボット制御問題を支援する。
論文 参考訳(メタデータ) (2023-04-27T23:03:52Z) - Deep Learning Computer Vision Algorithms for Real-time UAVs On-board
Camera Image Processing [77.34726150561087]
本稿では,ディープラーニングに基づくコンピュータビジョンアルゴリズムを用いて,小型UAVのリアルタイムセンサ処理を実現する方法について述べる。
すべてのアルゴリズムは、ディープニューラルネットワークに基づく最先端の画像処理手法を用いて開発されている。
論文 参考訳(メタデータ) (2022-11-02T11:10:42Z) - Visual Cross-View Metric Localization with Dense Uncertainty Estimates [11.76638109321532]
本研究は、屋外ロボティクスにおける視覚的クロスビューメトリックローカライゼーションに対処する。
地上レベルのカラー画像と局地的な環境を含む衛星パッチが与えられた場合、衛星パッチ内の地上カメラの位置を特定することが課題である。
我々は、より高密度な衛星記述子、ボトルネックにおける類似性マッチング、およびマルチモーダルなローカライゼーションの曖昧さを捉えるための出力としての密度空間分布を備えた新しいネットワークアーキテクチャを考案した。
論文 参考訳(メタデータ) (2022-08-17T20:12:23Z) - Detect and Approach: Close-Range Navigation Support for People with
Blindness and Low Vision [13.478275180547925]
視力と視力の低い人(pBLV)は、最終目的地の特定や、不慣れな環境で特定の対象を狙う際に重大な課題を経験する。
本研究では,ユーザの関心対象物へのアプローチを,不慣れな環境下で効果的かつ効率的に行うためのリアルタイムガイダンスを提供する,新しいウェアラブルナビゲーションソリューションを開発した。
論文 参考訳(メタデータ) (2022-08-17T18:38:20Z) - Satellite Image Based Cross-view Localization for Autonomous Vehicle [59.72040418584396]
本稿では,市販の高精細衛星画像を使用可能な地図として利用することにより,良好な精度でクロスビュー車両のローカライゼーションを実現することができることを示す。
本手法はKITTIとFord Multi-AVの季節データセットを地上ビューとして,Google Mapsを衛星ビューとして検証した。
論文 参考訳(メタデータ) (2022-07-27T13:16:39Z) - Semi-Perspective Decoupled Heatmaps for 3D Robot Pose Estimation from
Depth Maps [66.24554680709417]
協調環境における労働者とロボットの正確な3D位置を知ることは、いくつかの実際のアプリケーションを可能にする。
本研究では、深度デバイスと深度ニューラルネットワークに基づく非侵襲的なフレームワークを提案し、外部カメラからロボットの3次元ポーズを推定する。
論文 参考訳(メタデータ) (2022-07-06T08:52:12Z) - iSDF: Real-Time Neural Signed Distance Fields for Robot Perception [64.80458128766254]
iSDFは実時間符号付き距離場再構成のための連続学習システムである。
より正確な再構築と、衝突コストと勾配のより良い近似を生成する。
論文 参考訳(メタデータ) (2022-04-05T15:48:39Z) - Sparse Image based Navigation Architecture to Mitigate the need of
precise Localization in Mobile Robots [3.1556608426768324]
本稿では,スパース画像を用いた自律走行を追求する移動ロボットの正確な位置決めの必要性を軽減することに焦点を当てる。
提案手法は,教師なし学習のためのモデルアーキテクチャであるRoomNetで構成され,環境の粗い同定を行う。
後者はスパース画像マッチングを用いて、マッピングおよびトレーニング段階においてロボットが見たフレームをvis-a-visで達成したフレームの類似性を特徴付ける。
論文 参考訳(メタデータ) (2022-03-29T06:38:18Z) - ViKiNG: Vision-Based Kilometer-Scale Navigation with Geographic Hints [94.60414567852536]
長距離航法には、計画と局所的な移動可能性の推論の両方が必要である。
学習と計画を統合する学習に基づくアプローチを提案する。
ViKiNGは、画像ベースの学習コントローラを利用できる。
論文 参考訳(メタデータ) (2022-02-23T02:14:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。