論文の概要: System Configuration and Navigation of a Guide Dog Robot: Toward Animal
Guide Dog-Level Guiding Work
- arxiv url: http://arxiv.org/abs/2210.13368v1
- Date: Mon, 24 Oct 2022 16:11:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-25 18:39:45.435654
- Title: System Configuration and Navigation of a Guide Dog Robot: Toward Animal
Guide Dog-Level Guiding Work
- Title(参考訳): ガイドドッグロボットのシステム構成とナビゲーション:動物ガイドドッグレベル誘導作業に向けて
- Authors: Hochul Hwang, Tim Xia, Ibrahima Keita, Ken Suzuki, Joydeep Biswas,
Sunghoon I. Lee, and Donghyun Kim
- Abstract要約: ロボットガイドドッグは、コスト効率、大量生産の可能性、メンテナンスコストの低い動物ガイド犬に対して、強力なアドバンテージを持っている。
ガイドドッグハンドラとガイドドッグがナビゲーションのチームとしてどのように機能するかについては,これまでほとんど,あるいは全く考慮されていなかった。
本研究では,環境に関するセマンティック情報を活用することで,安全かつ効率的な案内作業を可能にするセマンティック・アウェア・ローカル・パス・プランナを提案する。
- 参考スコア(独自算出の注目度): 8.775408795666477
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A robot guide dog has compelling advantages over animal guide dogs for its
cost-effectiveness, potential for mass production, and low maintenance burden.
However, despite the long history of guide dog robot research, previous studies
were conducted with little or no consideration of how the guide dog handler and
the guide dog work as a team for navigation. To develop a robotic guiding
system that is genuinely beneficial to blind or visually impaired individuals,
we performed qualitative research, including interviews with guide dog handlers
and trainers and first-hand blindfold walking experiences with various guide
dogs. Grounded on the facts learned from vivid experience and interviews, we
build a collaborative indoor navigation scheme for a guide dog robot that
includes preferred features such as speed and directional control. For
collaborative navigation, we propose a semantic-aware local path planner that
enables safe and efficient guiding work by utilizing semantic information about
the environment and considering the handler's position and directional cues to
determine the collision-free path. We evaluate our integrated robotic system by
testing guide blindfold walking in indoor settings and demonstrate guide
dog-like navigation behavior by avoiding obstacles at typical gait speed ($0.7
\mathrm{m/s}$).
- Abstract(参考訳): ロボットガイド犬は、コスト効率、大量生産の可能性、メンテナンスの負担が低いため、動物ガイド犬よりも強力なアドバンテージを持っている。
しかし、ガイドドッグロボット研究の長い歴史にもかかわらず、ガイドドッグハンドラーとガイドドッグがナビゲーションチームとしてどのように機能するかをほとんど考慮せずに、これまでの研究は行われなかった。
視覚障害者や視覚障害者にとって真に有益であるロボットガイドシステムを開発するために,ガイドドッグハンドラーやトレーナーへのインタビューや,ガイドドッグによる目隠し歩行体験など,質的研究を行った。
実体験とインタヴューから得られた事実に基づいて,速度や方向制御などの望ましい機能を備えたガイドドッグロボットのための協調的な屋内ナビゲーションスキームを構築した。
協調ナビゲーションのために,環境に関するセマンティック情報を活用し,ハンドラの位置や方向を考慮し,衝突のない経路を決定することで,安全かつ効率的な案内作業を可能にするセマンティック・アウェア・ローカル・パス・プランナを提案する。
室内環境下での目隠し歩行による統合型ロボットシステムの評価と,典型的な歩行速度(0.7 \mathrm{m/s}$)での障害物回避によるガイド犬のようなナビゲーション行動の実証を行った。
関連論文リスト
- CoNav: A Benchmark for Human-Centered Collaborative Navigation [66.6268966718022]
協調ナビゲーション(CoNav)ベンチマークを提案する。
われわれのCoNavは、現実的で多様な人間の活動を伴う3Dナビゲーション環境を構築するという重要な課題に取り組む。
本研究では,長期的意図と短期的意図の両方を推論する意図認識エージェントを提案する。
論文 参考訳(メタデータ) (2024-06-04T15:44:25Z) - Seeing-Eye Quadruped Navigation with Force Responsive Locomotion Control [2.832383052276894]
目を見つめるロボットは、視覚障害者を導くのに役立つツールであり、大きな社会的影響をもたらす可能性がある。
実際のガイドドッグ設定で頻繁に発生する、人間からの外部タグは誰も考慮しなかった。
目隠しされた人間を持つ現実の四足歩行ロボットに、我々の完全な視線ロボットシステムを実演する。
論文 参考訳(メタデータ) (2023-09-08T15:02:46Z) - Transforming a Quadruped into a Guide Robot for the Visually Impaired:
Formalizing Wayfinding, Interaction Modeling, and Safety Mechanism [20.767170577136326]
ガイドロボットは、視覚障害者または視覚障害者(BVI)の2~3%しかアクセスできないガイド動物を、限定的に利用できるようにするための大きな可能性を秘めている。
本稿では,(1)ガイド犬とヒトのナビゲーション機構の定式化,(2)データ駆動型インタラクションモデルの開発,(3)ユーザ安全性の向上の3つの主要なトピックについて検討する。
論文 参考訳(メタデータ) (2023-06-24T20:47:36Z) - Barkour: Benchmarking Animal-level Agility with Quadruped Robots [70.97471756305463]
脚付きロボットのアジリティを定量化するための障害物コースであるBarkourベンチマークを導入する。
犬の機敏性の競争に触発され、様々な障害と時間に基づくスコアリング機構から構成される。
ベンチマークに対処する2つの方法を提案する。
論文 参考訳(メタデータ) (2023-05-24T02:49:43Z) - Gesture2Path: Imitation Learning for Gesture-aware Navigation [54.570943577423094]
Gesture2Pathは、画像に基づく模倣学習とモデル予測制御を組み合わせた新しいソーシャルナビゲーション手法である。
実際のロボットに本手法をデプロイし,4つのジェスチャーナビゲーションシナリオに対するアプローチの有効性を示す。
論文 参考訳(メタデータ) (2022-09-19T23:05:36Z) - Augmented reality navigation system for visual prosthesis [67.09251544230744]
反応ナビゲーションと経路計画のソフトウェアを組み込んだ視覚補綴用拡張現実ナビゲーションシステムを提案する。
対象を地図上に配置し、対象の軌道を計画し、対象に示し、障害なく再計画する。
その結果,目標を達成するための時間と距離を減らし,障害物衝突の回数を大幅に減らし,航法性能の向上を図っている。
論文 参考訳(メタデータ) (2021-09-30T09:41:40Z) - ReLMM: Practical RL for Learning Mobile Manipulation Skills Using Only
Onboard Sensors [64.2809875343854]
ロボットは、ナビゲーションと把握の組み合わせを必要とするスキルを自律的に学習する方法について研究する。
我々のシステムであるReLMMは、環境機器を使わずに、現実世界のプラットフォームで継続的に学習することができる。
グラウンドカリキュラムトレーニングフェーズの後、ReLMMは、現実世界のトレーニングの約40時間で、ナビゲーションと完全に自動的なグリップを学習できる。
論文 参考訳(メタデータ) (2021-07-28T17:59:41Z) - Adversarial Reinforced Instruction Attacker for Robust Vision-Language
Navigation [145.84123197129298]
自然言語に基づくナビゲーションタスクでは,言語指導が重要な役割を担っている。
より堅牢なナビゲータを訓練し、長い指導から重要な要素を動的に抽出する。
具体的には,航法士が間違った目標に移動することを誤認することを学習する動的強化命令攻撃装置(DR-Attacker)を提案する。
論文 参考訳(メタデータ) (2021-07-23T14:11:31Z) - Can a Robot Trust You? A DRL-Based Approach to Trust-Driven Human-Guided
Navigation [28.492657539522106]
言語誘導ナビゲーションタスクを実行するために,人間の信頼性を学習する信頼駆動型ロボットナビゲーションアルゴリズムを提案する。
言語に基づく指示から様々な情緒的特徴を考察し、それを人間の信頼度という形で政策の観察空間に組み込む。
この結果から,学習方針は爆発的アプローチとは対照的に,最適な時間効率で環境をナビゲートできることが示唆された。
論文 参考訳(メタデータ) (2020-11-01T16:43:10Z) - Robot Perception enables Complex Navigation Behavior via Self-Supervised
Learning [23.54696982881734]
本稿では、強化学習(RL)によるアクティブな目標駆動ナビゲーションタスクのためのロボット認識システムの統合手法を提案する。
提案手法は,1つの画像列から直接自己スーパービジョンを用いて得られる,コンパクトな動きと視覚知覚データを時間的に組み込む。
我々は,新しいインタラクティブなCityLearnフレームワークを用いて,実世界の運転データセットであるKITTIとOxford RobotCarのアプローチを実証した。
論文 参考訳(メタデータ) (2020-06-16T07:45:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。