論文の概要: GuideNav: User-Informed Development of a Vision-Only Robotic Navigation Assistant For Blind Travelers
- arxiv url: http://arxiv.org/abs/2512.06147v1
- Date: Fri, 05 Dec 2025 20:57:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-09 22:03:54.206901
- Title: GuideNav: User-Informed Development of a Vision-Only Robotic Navigation Assistant For Blind Travelers
- Title(参考訳): GuideNav: 盲人旅行者のための視覚専用のロボットナビゲーションアシスタントの開発
- Authors: Hochul Hwang, Soowan Yang, Jahir Sadik Monon, Nicholas A Giudice, Sunghoon Ivan Lee, Joydeep Biswas, Donghyun Kim,
- Abstract要約: GuideNavは視覚のみの、教習と繰り返しのナビゲーションシステムである。
GuideNavは、ガイド犬を訓練し、ハンドラーを補助する方法に触発され、視覚障害者がロボットを使って示す道を自律的に繰り返す。
野外試験では、ガイドナブは5つの屋外環境にまたがるキロスケールのルートを一貫して達成した。
- 参考スコア(独自算出の注目度): 14.840633179067295
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While commendable progress has been made in user-centric research on mobile assistive systems for blind and low-vision (BLV) individuals, references that directly inform robot navigation design remain rare. To bridge this gap, we conducted a comprehensive human study involving interviews with 26 guide dog handlers, four white cane users, nine guide dog trainers, and one O\&M trainer, along with 15+ hours of observing guide dog-assisted walking. After de-identification, we open-sourced the dataset to promote human-centered development and informed decision-making for assistive systems for BLV people. Building on insights from this formative study, we developed GuideNav, a vision-only, teach-and-repeat navigation system. Inspired by how guide dogs are trained and assist their handlers, GuideNav autonomously repeats a path demonstrated by a sighted person using a robot. Specifically, the system constructs a topological representation of the taught route, integrates visual place recognition with temporal filtering, and employs a relative pose estimator to compute navigation actions - all without relying on costly, heavy, power-hungry sensors such as LiDAR. In field tests, GuideNav consistently achieved kilometer-scale route following across five outdoor environments, maintaining reliability despite noticeable scene variations between teach and repeat runs. A user study with 3 guide dog handlers and 1 guide dog trainer further confirmed the system's feasibility, marking (to our knowledge) the first demonstration of a quadruped mobile system retrieving a path in a manner comparable to guide dogs.
- Abstract(参考訳): 視覚障害者や低視野者を対象とした移動支援システム(BLV)のユーザ中心的な研究が進められているが、ロボットナビゲーション設計を直接通知する参照は稀である。
このギャップを埋めるため,26名のガイドドッグハンドラー,4名のホワイト杖使用者,9名のガイドドッグトレーナー,1名のO\&Mトレーナーと15時間以上のガイドドッグアシスト歩行を行った。
人中心開発を促進するためのデータセットをオープンソースとして公開し,BLV支援システムに関する意思決定を通知した。
このフォーマティブな研究から得られた知見に基づいて,視覚のみの指導・反復ナビゲーションシステムである GuideNav を開発した。
GuideNavは、ガイド犬を訓練し、ハンドラーを補助する方法に触発され、視覚障害者がロボットを使って示す道を自律的に繰り返す。
具体的には、学習経路のトポロジ的表現を構築し、視覚的位置認識と時間的フィルタリングを統合し、相対的なポーズ推定器を用いてナビゲーション動作を計算する。
野外試験では、ガイドナブは5つの屋外環境にまたがるキロスケールのルートを一貫して達成し、指導と繰り返しのシーンの違いにもかかわらず信頼性を維持した。
3つのガイドドッグハンドラと1つのガイドドッグトレーナーによるユーザスタディにより、このシステムの有効性がさらに確認され、ガイドドッグに匹敵する方法で経路を検索する4つのモバイルシステムの最初のデモ(私たちの知る限り)がマークされた。
関連論文リスト
- Implementing blind navigation through multi-modal sensing and gait guidance [0.6554326244334868]
視覚障害者の世界の人口は2億2000万人を超えた。
ガイド・缶やガイド・ドッグのような伝統的な援助は存在するが、いくつかの欠点がある。
提案するGait-based Guiding Systemを通じてナビゲーション誘導を行うウェアラブルブラインドガイドデバイスについて紹介する。
論文 参考訳(メタデータ) (2025-06-24T13:03:20Z) - AI Guide Dog: Egocentric Path Prediction on Smartphone [2.050167020109177]
AIGDは、方向コマンドを予測するために、視覚のみのマルチラベル分類アプローチを採用している。
我々はGPS信号の統合によるゴールベース屋外ナビゲーションの新しい手法を提案する。
我々は、補助ナビゲーションシステムにおけるさらなる革新を促進するために、方法、データセット、評価、デプロイメントの洞察を提供する。
論文 参考訳(メタデータ) (2025-01-14T09:21:17Z) - Learning Navigational Visual Representations with Semantic Map
Supervision [85.91625020847358]
エージェントの自我中心のビューとセマンティックマップを対比してナビゲーション固有の視覚表現学習法を提案する。
Ego$2$-Map学習は、オブジェクト、構造、遷移などのコンパクトでリッチな情報を、ナビゲーションのためのエージェントのエゴセントリックな表現に転送する。
論文 参考訳(メタデータ) (2023-07-23T14:01:05Z) - System Configuration and Navigation of a Guide Dog Robot: Toward Animal
Guide Dog-Level Guiding Work [8.775408795666477]
ロボットガイドドッグは、コスト効率、大量生産の可能性、メンテナンスコストの低い動物ガイド犬に対して、強力なアドバンテージを持っている。
ガイドドッグハンドラとガイドドッグがナビゲーションのチームとしてどのように機能するかについては,これまでほとんど,あるいは全く考慮されていなかった。
本研究では,環境に関するセマンティック情報を活用することで,安全かつ効率的な案内作業を可能にするセマンティック・アウェア・ローカル・パス・プランナを提案する。
論文 参考訳(メタデータ) (2022-10-24T16:11:20Z) - Counterfactual Cycle-Consistent Learning for Instruction Following and
Generation in Vision-Language Navigation [172.15808300686584]
本稿では,2つのタスクを同時に学習し,それぞれのトレーニングを促進するために本質的な相関性を利用するアプローチについて述べる。
提案手法は,様々な追従モデルの性能を改善し,正確なナビゲーション命令を生成する。
論文 参考訳(メタデータ) (2022-03-30T18:15:26Z) - Explore before Moving: A Feasible Path Estimation and Memory Recalling
Framework for Embodied Navigation [117.26891277593205]
ナビゲーションに焦点をあて,経験や常識に欠ける既存のナビゲーションアルゴリズムの問題を解決する。
移動前に2回思考する能力に触発されて、不慣れな場面で目標を追求する実現可能な経路を考案し、パス推定とメモリリコールフレームワークと呼ばれる経路計画手法を提案する。
EmbodiedQAナビゲーションタスクにおけるPEMRの強力な実験結果を示す。
論文 参考訳(メタデータ) (2021-10-16T13:30:55Z) - Augmented reality navigation system for visual prosthesis [67.09251544230744]
反応ナビゲーションと経路計画のソフトウェアを組み込んだ視覚補綴用拡張現実ナビゲーションシステムを提案する。
対象を地図上に配置し、対象の軌道を計画し、対象に示し、障害なく再計画する。
その結果,目標を達成するための時間と距離を減らし,障害物衝突の回数を大幅に減らし,航法性能の向上を図っている。
論文 参考訳(メタデータ) (2021-09-30T09:41:40Z) - Learning Perceptual Locomotion on Uneven Terrains using Sparse Visual
Observations [75.60524561611008]
この研究は、人中心の環境において、よく見られるバンプ、ランプ、階段の広い範囲にわたる知覚的移動を達成するために、スパースな視覚的観察の使用を活用することを目的としている。
まず、関心の均一な面を表すことのできる最小限の視覚入力を定式化し、このような外受容的・固有受容的データを統合した学習フレームワークを提案する。
本研究では, 平地を全方向歩行し, 障害物のある地形を前方移動させるタスクにおいて, 学習方針を検証し, 高い成功率を示す。
論文 参考訳(メタデータ) (2021-09-28T20:25:10Z) - Deep Learning for Embodied Vision Navigation: A Survey [108.13766213265069]
身体的視覚ナビゲーション」問題では、エージェントが3D環境をナビゲートする必要がある。
本稿では、総合的な文献調査を提供することで、視覚ナビゲーションの具体的分野における現在の研究の概要を確立することを試みる。
論文 参考訳(メタデータ) (2021-07-07T12:09:04Z) - Robot Perception enables Complex Navigation Behavior via Self-Supervised
Learning [23.54696982881734]
本稿では、強化学習(RL)によるアクティブな目標駆動ナビゲーションタスクのためのロボット認識システムの統合手法を提案する。
提案手法は,1つの画像列から直接自己スーパービジョンを用いて得られる,コンパクトな動きと視覚知覚データを時間的に組み込む。
我々は,新しいインタラクティブなCityLearnフレームワークを用いて,実世界の運転データセットであるKITTIとOxford RobotCarのアプローチを実証した。
論文 参考訳(メタデータ) (2020-06-16T07:45:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。