論文の概要: DRISHTI: Visual Navigation Assistant for Visually Impaired
- arxiv url: http://arxiv.org/abs/2303.07451v1
- Date: Mon, 13 Mar 2023 20:10:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-15 17:30:35.980898
- Title: DRISHTI: Visual Navigation Assistant for Visually Impaired
- Title(参考訳): drishti:視覚障害者向けビジュアルナビゲーションアシスタント
- Authors: Malay Joshi, Aditi Shukla, Jayesh Srivastava, Manya Rastogi
- Abstract要約: 盲目で視覚障害者(BVI)は、自分の環境に関する情報を手動で支援する必要があるため、課題に直面します。
この研究で我々は、安価で高性能なアイウェアアシストデバイスDRISHTIの開発に向けて、最初の一歩を踏み出した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In today's society, where independent living is becoming increasingly
important, it can be extremely constricting for those who are blind. Blind and
visually impaired (BVI) people face challenges because they need manual support
to prompt information about their environment. In this work, we took our first
step towards developing an affordable and high-performing eye wearable
assistive device, DRISHTI, to provide visual navigation assistance for BVI
people. This system comprises a camera module, ESP32 processor, Bluetooth
module, smartphone and speakers. Using artificial intelligence, this system is
proposed to detect and understand the nature of the users' path and obstacles
ahead of the user in that path and then inform BVI users about it via audio
output to enable them to acquire directions by themselves on their journey.
This first step discussed in this paper involves establishing a
proof-of-concept of achieving the right balance of affordability and
performance by testing an initial software integration of a currency detection
algorithm on a low-cost embedded arrangement. This work will lay the foundation
for our upcoming works toward achieving the goal of assisting the maximum of
BVI people around the globe in moving independently.
- Abstract(参考訳): 自立生活がますます重要になっている今日の社会では、盲目の人にとっては極端に制限されることがある。
盲目で視覚障害者(BVI)は、自分の環境に関する情報を手動で支援する必要があるため、課題に直面します。
本研究は、BVI患者に視覚ナビゲーション支援を提供するために、安価で高性能なアイウェアアシストデバイスDRISHTIの開発に向けた第一歩を踏み出した。
本システムは、カメラモジュール、esp32プロセッサ、bluetoothモジュール、スマートフォン及びスピーカーを備える。
人工知能を用いて、このシステムは、その経路内のユーザの前にあるユーザの経路と障害の性質を検知し、理解し、オーディオ出力を介してbviユーザに通知することで、その経路を自分で取得できるようにする。
本稿では,通貨検出アルゴリズムの初期ソフトウェア統合を低コスト組込み配置上でテストすることにより,価格と性能の適切なバランスを実現するための概念実証を行う。
この取り組みは、世界中のBVIの人々の自立的な移動を支援するという目標を達成するための我々の今後の取り組みの基盤となるでしょう。
関連論文リスト
- NaVIP: An Image-Centric Indoor Navigation Solution for Visually Impaired People [12.230718190579724]
NaVIPは、包括性のための画像中心の屋内ナビゲーションと探索ソリューションを作ることを目指している。
まずは、大規模な携帯電話のカメラデータを、300K画像の4フロアの研究棟でキュレートすることから始めます。
すべての画像には、正確な6DoFカメラのポーズ、屋内のPoIの詳細、説明的なキャプションがラベル付けされている。
論文 参考訳(メタデータ) (2024-10-08T21:16:50Z) - Floor extraction and door detection for visually impaired guidance [78.94595951597344]
未知の環境で障害物のない経路を見つけることは、視覚障害者や自律ロボットにとって大きなナビゲーション問題である。
コンピュータビジョンシステムに基づく新しいデバイスは、障害のある人が安全な環境で未知の環境でナビゲートすることの難しさを克服するのに役立つ。
本研究では,視覚障害者のためのナビゲーションシステムの構築につながるセンサとアルゴリズムの組み合わせを提案する。
論文 参考訳(メタデータ) (2024-01-30T14:38:43Z) - Camera-Radar Perception for Autonomous Vehicles and ADAS: Concepts,
Datasets and Metrics [77.34726150561087]
本研究の目的は、ADASおよび自動運転車のカメラおよびレーダーによる認識の現在のシナリオに関する研究を行うことである。
両センサと融合に関する概念と特徴を提示する。
本稿では、ディープラーニングに基づく検出とセグメンテーションタスクの概要と、車両の認識における主要なデータセット、メトリクス、課題、オープンな質問について説明する。
論文 参考訳(メタデータ) (2023-03-08T00:48:32Z) - AVLEN: Audio-Visual-Language Embodied Navigation in 3D Environments [60.98664330268192]
AVLEN(Audio-Visual-Language Embodied Navigationの対話型エージェント)を提案する。
AVLENの目標は、3Dビジュアルワールドをナビゲートすることでオーディオイベントをローカライズすることである。
これらの能力を実現するために、AVLENはマルチモーダル階層的な強化学習バックボーンを使用する。
論文 参考訳(メタデータ) (2022-10-14T16:35:06Z) - Detect and Approach: Close-Range Navigation Support for People with
Blindness and Low Vision [13.478275180547925]
視力と視力の低い人(pBLV)は、最終目的地の特定や、不慣れな環境で特定の対象を狙う際に重大な課題を経験する。
本研究では,ユーザの関心対象物へのアプローチを,不慣れな環境下で効果的かつ効率的に行うためのリアルタイムガイダンスを提供する,新しいウェアラブルナビゲーションソリューションを開発した。
論文 参考訳(メタデータ) (2022-08-17T18:38:20Z) - Augmented reality navigation system for visual prosthesis [67.09251544230744]
反応ナビゲーションと経路計画のソフトウェアを組み込んだ視覚補綴用拡張現実ナビゲーションシステムを提案する。
対象を地図上に配置し、対象の軌道を計画し、対象に示し、障害なく再計画する。
その結果,目標を達成するための時間と距離を減らし,障害物衝突の回数を大幅に減らし,航法性能の向上を図っている。
論文 参考訳(メタデータ) (2021-09-30T09:41:40Z) - VisBuddy -- A Smart Wearable Assistant for the Visually Challenged [0.0]
VisBuddyは音声ベースのアシスタントで、ユーザーは音声コマンドで特定のタスクを実行することができる。
ユーザの周囲を記述するための画像キャプション技術、ユーザの視点でテキストを読み取るための光学文字認識(OCR)、部屋内のオブジェクトを検索して見つけるためのオブジェクト検出、最新のニュースを提供するためのWebスクレイピングを使用する。
論文 参考訳(メタデータ) (2021-08-17T17:15:23Z) - Deep Learning for Embodied Vision Navigation: A Survey [108.13766213265069]
身体的視覚ナビゲーション」問題では、エージェントが3D環境をナビゲートする必要がある。
本稿では、総合的な文献調査を提供することで、視覚ナビゲーションの具体的分野における現在の研究の概要を確立することを試みる。
論文 参考訳(メタデータ) (2021-07-07T12:09:04Z) - Active Visual Information Gathering for Vision-Language Navigation [115.40768457718325]
視覚言語ナビゲーション(VLN)は、エージェントがフォトリアリスティックな環境の中でナビゲーションの指示を行うためのタスクである。
VLNの重要な課題の1つは、曖昧な指示による不確実性を緩和し、環境の観察を不十分にすることで、堅牢なナビゲーションを行う方法である。
この研究は、人間のナビゲーション行動からインスピレーションを得て、よりインテリジェントなVLNポリシーのためのアクティブな情報収集能力を持つエージェントを提供する。
論文 参考訳(メタデータ) (2020-07-15T23:54:20Z) - DeFINE: Delayed Feedback based Immersive Navigation Environment for
Studying Goal-Directed Human Navigation [10.7197371210731]
DeFINE(Delayed Feedback Based Immersive Navigation Environment)は、ナビゲーションタスクの作成と管理を容易にするフレームワークである。
DeFINEは、実験中に参加者にパフォーマンスフィードバックを提供するビルトイン機能を備えている。
論文 参考訳(メタデータ) (2020-03-06T11:00:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。