論文の概要: Virtual Experience to Real World Application: Sidewalk Obstacle
Avoidance Using Reinforcement Learning for Visually Impaired
- arxiv url: http://arxiv.org/abs/2009.12877v1
- Date: Sun, 27 Sep 2020 15:42:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-14 03:44:53.855558
- Title: Virtual Experience to Real World Application: Sidewalk Obstacle
Avoidance Using Reinforcement Learning for Visually Impaired
- Title(参考訳): 仮想体験の現実世界への応用 : 視覚障害者のための強化学習を用いた歩道障害物回避
- Authors: Faruk Ahmed, Md Sultan Mahmud, Kazi Ashraf Moinuddin, Mohammed
Istiaque Hyder and Mohammed Yeasin
- Abstract要約: 視認されている人と視覚障害者は、歩道を歩いている間、ナビゲーションの安全性を必要とします。
シミュレーションロボット環境下での強化学習を通じて,Sidewalk Obstacle Avoidance Agent (SOAA) を訓練した。
Sidewalk Obstacle Conversational Agent (SOCA) は、自然言語の会話エージェントを実際の会話データで訓練することによって構築される。
- 参考スコア(独自算出の注目度): 6.18727087412292
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Finding a path free from obstacles that poses minimal risk is critical for
safe navigation. People who are sighted and people who are visually impaired
require navigation safety while walking on a sidewalk. In this research we
developed an assistive navigation on a sidewalk by integrating sensory inputs
using reinforcement learning. We trained a Sidewalk Obstacle Avoidance Agent
(SOAA) through reinforcement learning in a simulated robotic environment. A
Sidewalk Obstacle Conversational Agent (SOCA) is built by training a natural
language conversation agent with real conversation data. The SOAA along with
SOCA was integrated in a prototype device called augmented guide (AG).
Empirical analysis showed that this prototype improved the obstacle avoidance
experience about 5% from a base case of 81.29%
- Abstract(参考訳): 最小限のリスクをもたらす障害のない経路を見つけることは、安全なナビゲーションにとって重要である。
視覚障害者と視覚障害者は、歩道を歩いている間、ナビゲーションの安全性を必要とします。
本研究では,強化学習を用いた感覚入力を統合し,歩道における補助ナビゲーションを開発した。
シミュレーションロボット環境下での強化学習を通じて,Sidewalk Obstacle Avoidance Agent (SOAA) を訓練した。
Sidewalk Obstacle Conversational Agent (SOCA)は、自然言語会話エージェントを実際の会話データで訓練することによって構築される。
SOAAとSOCAは統合ガイド(AG)と呼ばれるプロトタイプデバイスに統合された。
実証分析の結果,81.29%のベースケースから約5%の障害物回避経験が改善された。
関連論文リスト
- Deep Reinforcement Learning-Based Mapless Crowd Navigation with
Perceived Risk of the Moving Crowd for Mobile Robots [0.0]
現在最先端のクラウドナビゲーションアプローチは、主に深層強化学習(DRL)に基づくものである。
本研究では,観測空間に衝突確率(CP)を組み込んで,移動する群衆の危険度をロボットに知覚する手法を提案する。
論文 参考訳(メタデータ) (2023-04-07T11:29:59Z) - Emergence of Maps in the Memories of Blind Navigation Agents [68.41901534985575]
動物ナビゲーション研究は、生物が環境の空間的表現(地図)を構築、維持する、という仮説を定めている。
私たちはマシン、具体的には人工知能(AI)ナビゲーションエージェントが、暗黙の(あるいは「メンタル」な)マップを構築しているかどうか尋ねる。
動物ナビゲーションとは異なり、エージェントの知覚システムを司法的に設計し、学習パラダイムを制御して代替ナビゲーション機構を無効化することができる。
論文 参考訳(メタデータ) (2023-01-30T20:09:39Z) - A New Path: Scaling Vision-and-Language Navigation with Synthetic
Instructions and Imitation Learning [70.14372215250535]
VLN(Vision-and-Language Navigation)の最近の研究は、RLエージェントを訓練して、フォトリアリスティックな環境で自然言語ナビゲーション命令を実行する。
人間の指導データが不足し、訓練環境の多様性が限られていることを考えると、これらのエージェントは複雑な言語基盤と空間言語理解に苦慮している。
我々は、密集した360度パノラマで捉えた500以上の屋内環境を取り、これらのパノラマを通して航法軌道を構築し、各軌道に対して視覚的に接地された指示を生成する。
4.2Mの命令-軌道対のデータセットは、既存の人間の注釈付きデータセットよりも2桁大きい。
論文 参考訳(メタデータ) (2022-10-06T17:59:08Z) - Occlusion-Aware Crowd Navigation Using People as Sensors [8.635930195821263]
このような設定では、センサーの視野が限られているため、オクルージョンが非常に一般的である。
これまでの研究では、人間のエージェントの観察された対話的行動が潜在的な障害を推定するために用いられることが示されている。
本稿では,このような社会的推論手法を計画パイプラインに統合することを提案する。
論文 参考訳(メタデータ) (2022-10-02T15:18:32Z) - Gesture2Path: Imitation Learning for Gesture-aware Navigation [54.570943577423094]
Gesture2Pathは、画像に基づく模倣学習とモデル予測制御を組み合わせた新しいソーシャルナビゲーション手法である。
実際のロボットに本手法をデプロイし,4つのジェスチャーナビゲーションシナリオに対するアプローチの有効性を示す。
論文 参考訳(メタデータ) (2022-09-19T23:05:36Z) - RCA: Ride Comfort-Aware Visual Navigation via Self-Supervised Learning [14.798955901284847]
共有された自律性の下では、車いすの利用者は安全で快適な乗用車を提供し、高レベルのナビゲーション計画に従うことを期待する。
本稿では,固有感覚を用いた走行性解析において,乗り心地を明示的にモデル化することを提案する。
我々のナビゲーションシステムは,ロボット実験を通じて人間に好意的な乗り心地を提供するとともに,人間の評価研究も行っている。
論文 参考訳(メタデータ) (2022-07-29T03:38:41Z) - Augmented reality navigation system for visual prosthesis [67.09251544230744]
反応ナビゲーションと経路計画のソフトウェアを組み込んだ視覚補綴用拡張現実ナビゲーションシステムを提案する。
対象を地図上に配置し、対象の軌道を計画し、対象に示し、障害なく再計画する。
その結果,目標を達成するための時間と距離を減らし,障害物衝突の回数を大幅に減らし,航法性能の向上を図っている。
論文 参考訳(メタデータ) (2021-09-30T09:41:40Z) - Deep Learning for Embodied Vision Navigation: A Survey [108.13766213265069]
身体的視覚ナビゲーション」問題では、エージェントが3D環境をナビゲートする必要がある。
本稿では、総合的な文献調査を提供することで、視覚ナビゲーションの具体的分野における現在の研究の概要を確立することを試みる。
論文 参考訳(メタデータ) (2021-07-07T12:09:04Z) - NavRep: Unsupervised Representations for Reinforcement Learning of Robot
Navigation in Dynamic Human Environments [28.530962677406627]
2つのエンドツーエンドと18の教師なし学習ベースのアーキテクチャをトレーニングし、それらと既存のアプローチを未認識のテストケースで比較します。
その結果,教師なし学習手法はエンドツーエンドの手法と競合することがわかった。
このリリースには、他の論文で記述されたトレーニング条件をエミュレートするように設計されたopenai-gym互換環境も含まれている。
論文 参考訳(メタデータ) (2020-12-08T12:51:14Z) - Active Visual Information Gathering for Vision-Language Navigation [115.40768457718325]
視覚言語ナビゲーション(VLN)は、エージェントがフォトリアリスティックな環境の中でナビゲーションの指示を行うためのタスクである。
VLNの重要な課題の1つは、曖昧な指示による不確実性を緩和し、環境の観察を不十分にすることで、堅牢なナビゲーションを行う方法である。
この研究は、人間のナビゲーション行動からインスピレーションを得て、よりインテリジェントなVLNポリシーのためのアクティブな情報収集能力を持つエージェントを提供する。
論文 参考訳(メタデータ) (2020-07-15T23:54:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。