論文の概要: Robot Patrol: Using Crowdsourcing and Robotic Systems to Provide Indoor
Navigation Guidance to The Visually Impaired
- arxiv url: http://arxiv.org/abs/2306.02843v1
- Date: Mon, 5 Jun 2023 12:49:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-06 15:13:38.901928
- Title: Robot Patrol: Using Crowdsourcing and Robotic Systems to Provide Indoor
Navigation Guidance to The Visually Impaired
- Title(参考訳): ロボットパトロール:クラウドソーシングとロボットシステムを使って視覚障害者に屋内ナビゲーションガイドを提供する
- Authors: Ike Obi, Ruiqi Wang, Prakash Shukla, Byung-Cheol Min
- Abstract要約: クラウドソーシング,コンピュータビジョン,ロボットフレームワークを組み合わせた統合システムを構築し,視覚障害者にコンテキスト情報を提供する。
本システムは,1)屋内へのルート上の潜在的な障害,2)回避や出席を希望するルート上の屋内イベントに関する情報,3)屋内への移動を安全かつ効果的に支援するその他の状況情報を提供するように設計されている。
- 参考スコア(独自算出の注目度): 5.973995274784383
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Indoor navigation is a challenging activity for persons with disabilities,
particularly, for those with low vision and visual impairment. Researchers have
explored numerous solutions to resolve these challenges; however, several
issues remain unsolved, particularly around providing dynamic and contextual
information about potential obstacles in indoor environments. In this paper, we
developed Robot Patrol, an integrated system that employs a combination of
crowdsourcing, computer vision, and robotic frameworks to provide contextual
information to the visually impaired to empower them to navigate indoor spaces
safely. In particular, the system is designed to provide information to the
visually impaired about 1) potential obstacles on the route to their indoor
destination, 2) information about indoor events on their route which they may
wish to avoid or attend, and 3) any other contextual information that might
support them to navigate to their indoor destinations safely and effectively.
Findings from the Wizard of Oz experiment of our demo system provide insights
into the benefits and limitations of the system. We provide a concise
discussion on the implications of our findings.
- Abstract(参考訳): 室内ナビゲーションは障害のある人、特に視力の低い人や視覚障害者にとって困難な活動である。
研究者はこれらの課題を解決するために多くの解決策を探求してきたが、特に屋内環境における潜在的な障害に関する動的かつ文脈的な情報の提供に関して、いくつかの問題は未解決のままである。
本研究では,クラウドソーシングとコンピュータビジョンとロボットフレームワークを組み合わせて,視覚障害者にコンテキスト情報を提供するシステムであるrobot patrolを開発した。
特に、システムは視覚障害者に情報を提供するように設計されている。
1) 屋内行き先への経路上の潜在的な障害
2 回避又は出席を希望する経路上の屋内行事に関する情報及び
3) 屋内の目的地まで安全かつ効果的に移動できるように支援するその他の状況情報。
デモシステムのWizard of Oz実験から得られた発見は、システムのメリットと限界に関する洞察を提供する。
我々はこの発見の意義について簡潔に議論する。
関連論文リスト
- Floor extraction and door detection for visually impaired guidance [78.94595951597344]
未知の環境で障害物のない経路を見つけることは、視覚障害者や自律ロボットにとって大きなナビゲーション問題である。
コンピュータビジョンシステムに基づく新しいデバイスは、障害のある人が安全な環境で未知の環境でナビゲートすることの難しさを克服するのに役立つ。
本研究では,視覚障害者のためのナビゲーションシステムの構築につながるセンサとアルゴリズムの組み合わせを提案する。
論文 参考訳(メタデータ) (2024-01-30T14:38:43Z) - Real-time Vision-based Navigation for a Robot in an Indoor Environment [0.0]
このシステムは、視覚に基づく技術と高度な経路計画アルゴリズムを利用して、障害物を避けながらロボットが目的地に向かって移動できるようにする。
この知見は、屋内ロボットナビゲーションの進歩に寄与し、リアルタイムで自律的なナビゲーションのための視覚ベースの技術の可能性を示している。
論文 参考訳(メタデータ) (2023-07-02T21:01:56Z) - Detect and Approach: Close-Range Navigation Support for People with
Blindness and Low Vision [13.478275180547925]
視力と視力の低い人(pBLV)は、最終目的地の特定や、不慣れな環境で特定の対象を狙う際に重大な課題を経験する。
本研究では,ユーザの関心対象物へのアプローチを,不慣れな環境下で効果的かつ効率的に行うためのリアルタイムガイダンスを提供する,新しいウェアラブルナビゲーションソリューションを開発した。
論文 参考訳(メタデータ) (2022-08-17T18:38:20Z) - Augmented reality navigation system for visual prosthesis [67.09251544230744]
反応ナビゲーションと経路計画のソフトウェアを組み込んだ視覚補綴用拡張現実ナビゲーションシステムを提案する。
対象を地図上に配置し、対象の軌道を計画し、対象に示し、障害なく再計画する。
その結果,目標を達成するための時間と距離を減らし,障害物衝突の回数を大幅に減らし,航法性能の向上を図っている。
論文 参考訳(メタデータ) (2021-09-30T09:41:40Z) - Deep Learning for Embodied Vision Navigation: A Survey [108.13766213265069]
身体的視覚ナビゲーション」問題では、エージェントが3D環境をナビゲートする必要がある。
本稿では、総合的な文献調査を提供することで、視覚ナビゲーションの具体的分野における現在の研究の概要を確立することを試みる。
論文 参考訳(メタデータ) (2021-07-07T12:09:04Z) - Diagnosing Vision-and-Language Navigation: What Really Matters [61.72935815656582]
視覚言語ナビゲーション(VLN)は、エージェントが自然言語の指示に従って視覚環境をナビゲートするマルチモーダルタスクである。
近年の研究では、室内および屋外のVLNタスクのパフォーマンス改善が鈍化している。
本研究では,ナビゲーション中のエージェントの焦点を明らかにするための一連の診断実験を行う。
論文 参考訳(メタデータ) (2021-03-30T17:59:07Z) - Vision-Based Mobile Robotics Obstacle Avoidance With Deep Reinforcement
Learning [49.04274612323564]
障害物回避は、移動ロボットの自律ナビゲーションのための根本的かつ困難な問題です。
本稿では,ロボットが単一眼カメラにのみ依存しなければならない単純な3D環境における障害物回避の問題を検討する。
データ駆動型エンドツーエンドディープラーニングアプローチとして,障害回避問題に取り組む。
論文 参考訳(メタデータ) (2021-03-08T13:05:46Z) - Active Visual Information Gathering for Vision-Language Navigation [115.40768457718325]
視覚言語ナビゲーション(VLN)は、エージェントがフォトリアリスティックな環境の中でナビゲーションの指示を行うためのタスクである。
VLNの重要な課題の1つは、曖昧な指示による不確実性を緩和し、環境の観察を不十分にすることで、堅牢なナビゲーションを行う方法である。
この研究は、人間のナビゲーション行動からインスピレーションを得て、よりインテリジェントなVLNポリシーのためのアクティブな情報収集能力を持つエージェントを提供する。
論文 参考訳(メタデータ) (2020-07-15T23:54:20Z) - Road obstacles positional and dynamic features extraction combining
object detection, stereo disparity maps and optical flow data [0.0]
ナビゲーション目的の視覚認識システムが障害を特定することは重要である。
本稿では,障害物の同定とクラス,位置,深さ,動き情報の抽出について述べる。
論文 参考訳(メタデータ) (2020-06-24T19:29:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。