論文の概要: Floor extraction and door detection for visually impaired guidance
- arxiv url: http://arxiv.org/abs/2401.17056v1
- Date: Tue, 30 Jan 2024 14:38:43 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-31 14:43:24.805046
- Title: Floor extraction and door detection for visually impaired guidance
- Title(参考訳): 視覚障害者誘導のための床の抽出とドア検出
- Authors: Bruno Berenguel-Baeta, Manuel Guerrero-Viu, Alejandro de Nova, Jesus
Bermudez-Cameo, Alejandro Perez-Yus, Jose J. Guerrero
- Abstract要約: 未知の環境で障害物のない経路を見つけることは、視覚障害者や自律ロボットにとって大きなナビゲーション問題である。
コンピュータビジョンシステムに基づく新しいデバイスは、障害のある人が安全な環境で未知の環境でナビゲートすることの難しさを克服するのに役立つ。
本研究では,視覚障害者のためのナビゲーションシステムの構築につながるセンサとアルゴリズムの組み合わせを提案する。
- 参考スコア(独自算出の注目度): 78.94595951597344
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Finding obstacle-free paths in unknown environments is a big navigation issue
for visually impaired people and autonomous robots. Previous works focus on
obstacle avoidance, however they do not have a general view of the environment
they are moving in. New devices based on computer vision systems can help
impaired people to overcome the difficulties of navigating in unknown
environments in safe conditions. In this work it is proposed a combination of
sensors and algorithms that can lead to the building of a navigation system for
visually impaired people. Based on traditional systems that use RGB-D cameras
for obstacle avoidance, it is included and combined the information of a
fish-eye camera, which will give a better understanding of the user's
surroundings. The combination gives robustness and reliability to the system as
well as a wide field of view that allows to obtain many information from the
environment. This combination of sensors is inspired by human vision where the
center of the retina (fovea) provides more accurate information than the
periphery, where humans have a wider field of view. The proposed system is
mounted on a wearable device that provides the obstacle-free zones of the
scene, allowing the planning of trajectories for people guidance.
- Abstract(参考訳): 未知の環境で障害物のない経路を見つけることは、視覚障害者や自律ロボットにとって大きなナビゲーション問題である。
従来の作業は障害物回避に重点を置いていたが、彼らが移動する環境の一般的な見方は持っていない。
コンピュータビジョンシステムに基づく新しいデバイスは、障害のある人々が安全な環境で未知の環境をナビゲートすることの難しさを克服するのに役立つ。
本研究では,視覚障害者のためのナビゲーションシステムを構築するためのセンサとアルゴリズムの組み合わせを提案する。
障害物回避のためにRGB-Dカメラを使用する従来のシステムに基づいて、魚眼カメラの情報を統合して、ユーザの環境をよりよく理解する。
この組み合わせは、システムに対して堅牢性と信頼性を与え、環境から多くの情報を得ることができる幅広い視野を提供する。
このセンサーの組み合わせは人間の視覚にインスパイアされ、網膜の中心(焦点)は、人間が広い視野を持つ周囲よりも正確な情報を提供する。
提案するシステムは,現場の障害物のないゾーンを提供するウェアラブルデバイスに搭載され,人案内のための軌跡の計画が可能となる。
関連論文リスト
- Multimodal Perception System for Real Open Environment [0.0]
提案システムには、組み込み計算プラットフォーム、カメラ、超音波センサー、GPS、IMUデバイスが含まれる。
従来のフレームワークとは異なり、私たちのシステムは複数のセンサーと高度なコンピュータビジョンアルゴリズムを統合し、ユーザーが確実に外を歩けるようにします。
論文 参考訳(メタデータ) (2024-10-10T13:53:42Z) - Robot Patrol: Using Crowdsourcing and Robotic Systems to Provide Indoor
Navigation Guidance to The Visually Impaired [5.973995274784383]
クラウドソーシング,コンピュータビジョン,ロボットフレームワークを組み合わせた統合システムを構築し,視覚障害者にコンテキスト情報を提供する。
本システムは,1)屋内へのルート上の潜在的な障害,2)回避や出席を希望するルート上の屋内イベントに関する情報,3)屋内への移動を安全かつ効果的に支援するその他の状況情報を提供するように設計されている。
論文 参考訳(メタデータ) (2023-06-05T12:49:52Z) - Camera-Radar Perception for Autonomous Vehicles and ADAS: Concepts,
Datasets and Metrics [77.34726150561087]
本研究の目的は、ADASおよび自動運転車のカメラおよびレーダーによる認識の現在のシナリオに関する研究を行うことである。
両センサと融合に関する概念と特徴を提示する。
本稿では、ディープラーニングに基づく検出とセグメンテーションタスクの概要と、車両の認識における主要なデータセット、メトリクス、課題、オープンな質問について説明する。
論文 参考訳(メタデータ) (2023-03-08T00:48:32Z) - Detect and Approach: Close-Range Navigation Support for People with
Blindness and Low Vision [13.478275180547925]
視力と視力の低い人(pBLV)は、最終目的地の特定や、不慣れな環境で特定の対象を狙う際に重大な課題を経験する。
本研究では,ユーザの関心対象物へのアプローチを,不慣れな環境下で効果的かつ効率的に行うためのリアルタイムガイダンスを提供する,新しいウェアラブルナビゲーションソリューションを開発した。
論文 参考訳(メタデータ) (2022-08-17T18:38:20Z) - Augmented reality navigation system for visual prosthesis [67.09251544230744]
反応ナビゲーションと経路計画のソフトウェアを組み込んだ視覚補綴用拡張現実ナビゲーションシステムを提案する。
対象を地図上に配置し、対象の軌道を計画し、対象に示し、障害なく再計画する。
その結果,目標を達成するための時間と距離を減らし,障害物衝突の回数を大幅に減らし,航法性能の向上を図っている。
論文 参考訳(メタデータ) (2021-09-30T09:41:40Z) - Vision-Based Mobile Robotics Obstacle Avoidance With Deep Reinforcement
Learning [49.04274612323564]
障害物回避は、移動ロボットの自律ナビゲーションのための根本的かつ困難な問題です。
本稿では,ロボットが単一眼カメラにのみ依存しなければならない単純な3D環境における障害物回避の問題を検討する。
データ駆動型エンドツーエンドディープラーニングアプローチとして,障害回避問題に取り組む。
論文 参考訳(メタデータ) (2021-03-08T13:05:46Z) - Towards robust sensing for Autonomous Vehicles: An adversarial
perspective [82.83630604517249]
結果として得られる決定が摂動に対して堅牢であることは、最も重要なことです。
敵対的摂動は、意図的に環境や感覚測定の修正を施したものである。
より安全なシステムの構築とデプロイには,センサーシステムの脆弱性を慎重に評価する必要がある。
論文 参考訳(メタデータ) (2020-07-14T05:25:15Z) - BADGR: An Autonomous Self-Supervised Learning-Based Navigation System [158.6392333480079]
BadGRは、エンドツーエンドの学習ベースのモバイルロボットナビゲーションシステムである。
実際の環境で収集された、自己監督型のオフポリシーデータでトレーニングすることができる。
BadGRは、幾何学的に邪魔な障害物を伴って、現実世界の都市やオフロード環境をナビゲートすることができる。
論文 参考訳(メタデータ) (2020-02-13T18:40:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。