論文の概要: Implementing blind navigation through multi-modal sensing and gait guidance
- arxiv url: http://arxiv.org/abs/2506.19593v1
- Date: Tue, 24 Jun 2025 13:03:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-25 19:48:23.634133
- Title: Implementing blind navigation through multi-modal sensing and gait guidance
- Title(参考訳): マルチモーダルセンシングと歩行誘導によるブラインドナビゲーションの実現
- Authors: Feifan Yan, Tianle Zeng, Meixi He,
- Abstract要約: 視覚障害者の世界の人口は2億2000万人を超えた。
ガイド・缶やガイド・ドッグのような伝統的な援助は存在するが、いくつかの欠点がある。
提案するGait-based Guiding Systemを通じてナビゲーション誘導を行うウェアラブルブラインドガイドデバイスについて紹介する。
- 参考スコア(独自算出の注目度): 0.6554326244334868
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: By the year 2023, the global population of individuals with impaired vision has surpassed 220 million. People with impaired vision will find it difficult while finding path or avoiding obstacles, and must ask for auxiliary tools for help. Although traditional aids such as guide canes and guide dogs exist, they still have some shortcomings. In this paper, we present our wearable blind guiding device, what perform navigation guidance through our proposed Gait-based Guiding System. Our device innovatively integrates gait phase analysis for walking guide, and in terms of environmental perception, we use multimodal sensing to acquire diverse environment information. During the experiment, we conducted both indoor and outdoor experiments, and compared with the standard guide cane. The result shows superior performance of our device in blind guidance.
- Abstract(参考訳): 2023年までに世界人口は2億2000万人を超えた。
視力障害のある人は、道を見つけるのや障害物を避けるのが難しく、助けを求める必要がある。
ガイド・缶やガイド・ドッグのような伝統的な補助具は存在するが、いくつかの欠点がある。
本稿では、このウェアラブルブラインドガイド装置について、提案したGaitベースのガイドシステムを通してナビゲーションガイダンスを行う。
我々の装置は歩行ガイドのための歩行位相解析を革新的に統合し、環境認識の観点からは多様な環境情報を取得するためにマルチモーダルセンシングを用いる。
実験では,室内および屋外の両方の実験を行い,標準ガイド杖と比較した。
その結果,盲点誘導におけるデバイスの性能は優れていた。
関連論文リスト
- AI Guide Dog: Egocentric Path Prediction on Smartphone [2.050167020109177]
AIGDは、方向コマンドを予測するために、視覚のみのマルチラベル分類アプローチを採用している。
我々はGPS信号の統合によるゴールベース屋外ナビゲーションの新しい手法を提案する。
我々は、補助ナビゲーションシステムにおけるさらなる革新を促進するために、方法、データセット、評価、デプロイメントの洞察を提供する。
論文 参考訳(メタデータ) (2025-01-14T09:21:17Z) - Floor extraction and door detection for visually impaired guidance [78.94595951597344]
未知の環境で障害物のない経路を見つけることは、視覚障害者や自律ロボットにとって大きなナビゲーション問題である。
コンピュータビジョンシステムに基づく新しいデバイスは、障害のある人が安全な環境で未知の環境でナビゲートすることの難しさを克服するのに役立つ。
本研究では,視覚障害者のためのナビゲーションシステムの構築につながるセンサとアルゴリズムの組み合わせを提案する。
論文 参考訳(メタデータ) (2024-01-30T14:38:43Z) - Robot Patrol: Using Crowdsourcing and Robotic Systems to Provide Indoor
Navigation Guidance to The Visually Impaired [5.973995274784383]
クラウドソーシング,コンピュータビジョン,ロボットフレームワークを組み合わせた統合システムを構築し,視覚障害者にコンテキスト情報を提供する。
本システムは,1)屋内へのルート上の潜在的な障害,2)回避や出席を希望するルート上の屋内イベントに関する情報,3)屋内への移動を安全かつ効果的に支援するその他の状況情報を提供するように設計されている。
論文 参考訳(メタデータ) (2023-06-05T12:49:52Z) - Emergence of Maps in the Memories of Blind Navigation Agents [68.41901534985575]
動物ナビゲーション研究は、生物が環境の空間的表現(地図)を構築、維持する、という仮説を定めている。
私たちはマシン、具体的には人工知能(AI)ナビゲーションエージェントが、暗黙の(あるいは「メンタル」な)マップを構築しているかどうか尋ねる。
動物ナビゲーションとは異なり、エージェントの知覚システムを司法的に設計し、学習パラダイムを制御して代替ナビゲーション機構を無効化することができる。
論文 参考訳(メタデータ) (2023-01-30T20:09:39Z) - System Configuration and Navigation of a Guide Dog Robot: Toward Animal
Guide Dog-Level Guiding Work [8.775408795666477]
ロボットガイドドッグは、コスト効率、大量生産の可能性、メンテナンスコストの低い動物ガイド犬に対して、強力なアドバンテージを持っている。
ガイドドッグハンドラとガイドドッグがナビゲーションのチームとしてどのように機能するかについては,これまでほとんど,あるいは全く考慮されていなかった。
本研究では,環境に関するセマンティック情報を活用することで,安全かつ効率的な案内作業を可能にするセマンティック・アウェア・ローカル・パス・プランナを提案する。
論文 参考訳(メタデータ) (2022-10-24T16:11:20Z) - Augmented reality navigation system for visual prosthesis [67.09251544230744]
反応ナビゲーションと経路計画のソフトウェアを組み込んだ視覚補綴用拡張現実ナビゲーションシステムを提案する。
対象を地図上に配置し、対象の軌道を計画し、対象に示し、障害なく再計画する。
その結果,目標を達成するための時間と距離を減らし,障害物衝突の回数を大幅に減らし,航法性能の向上を図っている。
論文 参考訳(メタデータ) (2021-09-30T09:41:40Z) - Deep Learning for Embodied Vision Navigation: A Survey [108.13766213265069]
身体的視覚ナビゲーション」問題では、エージェントが3D環境をナビゲートする必要がある。
本稿では、総合的な文献調査を提供することで、視覚ナビゲーションの具体的分野における現在の研究の概要を確立することを試みる。
論文 参考訳(メタデータ) (2021-07-07T12:09:04Z) - Diagnosing Vision-and-Language Navigation: What Really Matters [61.72935815656582]
視覚言語ナビゲーション(VLN)は、エージェントが自然言語の指示に従って視覚環境をナビゲートするマルチモーダルタスクである。
近年の研究では、室内および屋外のVLNタスクのパフォーマンス改善が鈍化している。
本研究では,ナビゲーション中のエージェントの焦点を明らかにするための一連の診断実験を行う。
論文 参考訳(メタデータ) (2021-03-30T17:59:07Z) - Active Visual Information Gathering for Vision-Language Navigation [115.40768457718325]
視覚言語ナビゲーション(VLN)は、エージェントがフォトリアリスティックな環境の中でナビゲーションの指示を行うためのタスクである。
VLNの重要な課題の1つは、曖昧な指示による不確実性を緩和し、環境の観察を不十分にすることで、堅牢なナビゲーションを行う方法である。
この研究は、人間のナビゲーション行動からインスピレーションを得て、よりインテリジェントなVLNポリシーのためのアクティブな情報収集能力を持つエージェントを提供する。
論文 参考訳(メタデータ) (2020-07-15T23:54:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。