論文の概要: Flying Guide Dog: Walkable Path Discovery for the Visually Impaired
Utilizing Drones and Transformer-based Semantic Segmentation
- arxiv url: http://arxiv.org/abs/2108.07007v1
- Date: Mon, 16 Aug 2021 10:32:24 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-17 14:44:41.676022
- Title: Flying Guide Dog: Walkable Path Discovery for the Visually Impaired
Utilizing Drones and Transformer-based Semantic Segmentation
- Title(参考訳): flying guide dog: ドローンとトランスフォーマチックセグメンテーションを利用した視覚障害者の歩行可能な経路発見
- Authors: Haobin Tan, Chang Chen, Xinyu Luo, Jiaming Zhang, Constantin Seibold,
Kailun Yang and Rainer Stiefelhagen
- Abstract要約: 本稿では,ドローンとストリートビューセマンティックセグメンテーションを用いたBVIP支援のための"フライングガイドドッグ"のプロトタイプを提案する。
セグメンテーション予測から抽出した歩行可能な領域に基づいて、ドローンは自動的に動きを調整することができる。
歩行者の交通信号の色を認識することで、プロトタイプは利用者が安全に通りを横断するのに役立ちます。
- 参考スコア(独自算出の注目度): 30.634369745866163
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Lacking the ability to sense ambient environments effectively, blind and
visually impaired people (BVIP) face difficulty in walking outdoors, especially
in urban areas. Therefore, tools for assisting BVIP are of great importance. In
this paper, we propose a novel "flying guide dog" prototype for BVIP assistance
using drone and street view semantic segmentation. Based on the walkable areas
extracted from the segmentation prediction, the drone can adjust its movement
automatically and thus lead the user to walk along the walkable path. By
recognizing the color of pedestrian traffic lights, our prototype can help the
user to cross a street safely. Furthermore, we introduce a new dataset named
Pedestrian and Vehicle Traffic Lights (PVTL), which is dedicated to traffic
light recognition. The result of our user study in real-world scenarios shows
that our prototype is effective and easy to use, providing new insight into
BVIP assistance.
- Abstract(参考訳): 視覚障害者(bvip)は、環境を効果的に感知する能力が欠如しており、特に都市部では屋外歩行が困難である。
したがって、BVIP支援ツールは非常に重要である。
本稿では,ドローンとストリートビューセマンティックセグメンテーションを用いたBVIP支援のための新しい"フライングガイドドッグ"プロトタイプを提案する。
セグメンテーション予測から抽出された歩行可能領域に基づいて、ドローンは自動的に動きを調整でき、ユーザーは歩行可能経路に沿って歩くことができる。
歩行者の交通信号の色を認識することで、プロトタイプはユーザーが安全に通りを横断するのに役立つ。
さらに,交通信号の認識を目的としたPedestrian and Vehicle Traffic Lights (PVTL) という新しいデータセットを導入する。
実世界のシナリオにおけるユーザ調査の結果,プロトタイプは効果的で使いやすいことを示し,bvip支援に関する新たな洞察を与えました。
関連論文リスト
- Guide-LLM: An Embodied LLM Agent and Text-Based Topological Map for Robotic Guidance of People with Visual Impairments [1.18749525824656]
Guide-LLMは、大きな屋内環境をナビゲートする際の視覚障害者(PVI)を支援するために設計されたテキストベースのエージェントである。
我々のアプローチは,LLMがグローバルパスを計画できる新しいテキストベースのトポロジマップを特徴としている。
シミュレーション実験は、PVIを誘導するシステムの有効性を実証し、その可能性を補助技術の重要な進歩として示している。
論文 参考訳(メタデータ) (2024-10-28T01:58:21Z) - Floor extraction and door detection for visually impaired guidance [78.94595951597344]
未知の環境で障害物のない経路を見つけることは、視覚障害者や自律ロボットにとって大きなナビゲーション問題である。
コンピュータビジョンシステムに基づく新しいデバイスは、障害のある人が安全な環境で未知の環境でナビゲートすることの難しさを克服するのに役立つ。
本研究では,視覚障害者のためのナビゲーションシステムの構築につながるセンサとアルゴリズムの組み合わせを提案する。
論文 参考訳(メタデータ) (2024-01-30T14:38:43Z) - Local and Global Contextual Features Fusion for Pedestrian Intention
Prediction [2.203209457340481]
我々は歩行者と交通状況の両方の視覚的特徴を分析し分析する。
グローバルな文脈を理解するために、位置、動き、環境情報を利用する。
これらのマルチモダリティ機能は、効果的な意図学習のためにインテリジェントに融合されている。
論文 参考訳(メタデータ) (2023-05-01T22:37:31Z) - DRISHTI: Visual Navigation Assistant for Visually Impaired [0.0]
盲目で視覚障害者(BVI)は、自分の環境に関する情報を手動で支援する必要があるため、課題に直面します。
この研究で我々は、安価で高性能なアイウェアアシストデバイスDRISHTIの開発に向けて、最初の一歩を踏み出した。
論文 参考訳(メタデータ) (2023-03-13T20:10:44Z) - Structured Bird's-Eye-View Traffic Scene Understanding from Onboard
Images [128.881857704338]
本研究では,BEV座標における局所道路網を表す有向グラフを,単眼カメラ画像から抽出する問題について検討する。
提案手法は,BEV平面上の動的物体を検出するために拡張可能であることを示す。
我々は、強力なベースラインに対するアプローチを検証するとともに、ネットワークが優れたパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2021-10-05T12:40:33Z) - Augmented reality navigation system for visual prosthesis [67.09251544230744]
反応ナビゲーションと経路計画のソフトウェアを組み込んだ視覚補綴用拡張現実ナビゲーションシステムを提案する。
対象を地図上に配置し、対象の軌道を計画し、対象に示し、障害なく再計画する。
その結果,目標を達成するための時間と距離を減らし,障害物衝突の回数を大幅に減らし,航法性能の向上を図っている。
論文 参考訳(メタデータ) (2021-09-30T09:41:40Z) - Learning Perceptual Locomotion on Uneven Terrains using Sparse Visual
Observations [75.60524561611008]
この研究は、人中心の環境において、よく見られるバンプ、ランプ、階段の広い範囲にわたる知覚的移動を達成するために、スパースな視覚的観察の使用を活用することを目的としている。
まず、関心の均一な面を表すことのできる最小限の視覚入力を定式化し、このような外受容的・固有受容的データを統合した学習フレームワークを提案する。
本研究では, 平地を全方向歩行し, 障害物のある地形を前方移動させるタスクにおいて, 学習方針を検証し, 高い成功率を示す。
論文 参考訳(メタデータ) (2021-09-28T20:25:10Z) - Autonomous Vehicle Visual Signals for Pedestrians: Experiments and
Design Recommendations [15.93407659887257]
運転手がいない状態では、自動運転車が歩行者にその意図を伝える方法が明確ではない。
歩行者横断歩道における視認性,直感性,説得性,ユーザビリティの6つの視覚信号の評価を行った。
我々は、信号パターンの設計と配置に焦点をあてて、12の実用的なAV視覚信号の設計勧告を精査する。
論文 参考訳(メタデータ) (2020-10-10T22:56:46Z) - Vision Meets Wireless Positioning: Effective Person Re-identification
with Recurrent Context Propagation [120.18969251405485]
既存の人物再識別方法は、歩行者を捕獲する視覚センサーに依存している。
携帯電話は、無線測位信号の形で、WiFiや携帯電話ネットワークによって感知することができる。
本稿では,視覚データと無線位置決めデータの間で情報伝達を可能にする新しいコンテキスト伝搬モジュールを提案する。
論文 参考訳(メタデータ) (2020-08-10T14:19:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。