論文の概要: Vision based Virtual Guidance for Navigation
- arxiv url: http://arxiv.org/abs/2303.02731v1
- Date: Sun, 5 Mar 2023 17:55:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-07 18:06:55.067210
- Title: Vision based Virtual Guidance for Navigation
- Title(参考訳): 視覚に基づくナビゲーションのための仮想誘導
- Authors: Hsuan-Kung Yang, Yu-Ying Chen, Tsung-Chih Chiang, Chia-Chuan Hsu,
Chun-Chia Huang, Chun-Wei Huang, Jou-Min Liu, Ting-Ru Liu, Tsu-Ching Hsiao,
and Chun-Yi Lee
- Abstract要約: 本報告では,ナビゲーション性能の異なる仮想誘導方式の可能性について検討する。
仮想誘導信号の3つのスキームは、仮想ナビゲーションパス、仮想ウェイポイント、両方の組み合わせである。
その結果、仮想誘導により、エージェントにより意味のあるナビゲーション情報を提供し、パス完了率とナビゲーション効率の点で、より良いパフォーマンスが得られることがわかった。
- 参考スコア(独自算出の注目度): 10.907849428688765
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: This paper explores the impact of virtual guidance on mid-level
representation-based navigation, where an agent performs navigation tasks based
solely on visual observations. Instead of providing distance measures or
numerical directions to guide the agent, which may be difficult for it to
interpret visually, the paper investigates the potential of different forms of
virtual guidance schemes on navigation performance. Three schemes of virtual
guidance signals are explored: virtual navigation path, virtual waypoints, and
a combination of both. The experiments were conducted using a virtual city
built with the Unity engine to train the agents while avoiding obstacles. The
results show that virtual guidance provides the agent with more meaningful
navigation information and achieves better performance in terms of path
completion rates and navigation efficiency. In addition, a set of analyses were
provided to investigate the failure cases and the navigated trajectories, and a
pilot study was conducted for the real-world scenarios.
- Abstract(参考訳): 本稿では,エージェントが視覚観察のみに基づいてナビゲーションタスクを実行する中レベルの表現ベースナビゲーションにおける仮想ガイダンスの効果について検討する。
本論文は, エージェントを案内するための距離尺度や数値方向を提供する代わりに, 様々な形態の仮想誘導スキームのナビゲーション性能への影響について検討した。
仮想誘導信号の3つのスキームは、仮想ナビゲーションパス、仮想ウェイポイント、両方の組み合わせである。
実験は、Unityエンジンを搭載した仮想都市を使用して、障害物を避けながらエージェントを訓練した。
その結果,仮想誘導はエージェントに対してより有意義なナビゲーション情報を提供し,経路完成率とナビゲーション効率の面で,より優れた性能が得られることがわかった。
さらに,故障事例と走行軌道を調査するための一連の分析を行い,実世界のシナリオを対象としたパイロット実験を行った。
関連論文リスト
- Robust Navigation with Cross-Modal Fusion and Knowledge Transfer [16.529923581195753]
移動ロボットの一般化に関する問題点を考察する。
一般化のためのクロスモーダル融合法と知識伝達フレームワークを提案する。
教師の行動と表現を模倣することにより、学生はノイズの多いマルチモーダル入力から特徴を調整できる。
論文 参考訳(メタデータ) (2023-09-23T05:16:35Z) - Learning Navigational Visual Representations with Semantic Map
Supervision [85.91625020847358]
エージェントの自我中心のビューとセマンティックマップを対比してナビゲーション固有の視覚表現学習法を提案する。
Ego$2$-Map学習は、オブジェクト、構造、遷移などのコンパクトでリッチな情報を、ナビゲーションのためのエージェントのエゴセントリックな表現に転送する。
論文 参考訳(メタデータ) (2023-07-23T14:01:05Z) - Navigating to Objects in the Real World [76.1517654037993]
本稿では,古典的,モジュール的,エンド・ツー・エンドの学習手法と比較した,意味的視覚ナビゲーション手法に関する大規模な実証的研究について述べる。
モジュラー学習は実世界ではうまく機能し、90%の成功率に達しています。
対照的に、エンド・ツー・エンドの学習は、シミュレーションと現実の間の画像領域の差が大きいため、77%のシミュレーションから23%の実際の成功率へと低下する。
論文 参考訳(メタデータ) (2022-12-02T01:10:47Z) - A Simulation Benchmark for Vision-based Autonomous Navigation [3.141160852597485]
この研究は、視覚に基づく自律ナビゲーションのためのシミュレーターベンチマークを導入する。
ベンチマークには、完全な自律的なビジュアルナビゲーションスタックのさまざまなコンポーネントのモジュール化された統合が含まれている。
論文 参考訳(メタデータ) (2022-03-24T12:51:10Z) - Image-based Navigation in Real-World Environments via Multiple Mid-level
Representations: Fusion Models, Benchmark and Efficient Evaluation [13.207579081178716]
近年の学習に基づくナビゲーション手法では,エージェントのシーン理解とナビゲーション能力が同時に実現されている。
残念ながら、シミュレーターがナビゲーションポリシーを訓練する効率的なツールであるとしても、現実の世界に移動すると、結果のモデルは失敗することが多い。
可能な解決策の1つは、シーンの重要なドメイン不変性を含む中間レベルの視覚表現を備えたナビゲーションモデルを提供することである。
論文 参考訳(メタデータ) (2022-02-02T15:00:44Z) - Augmented reality navigation system for visual prosthesis [67.09251544230744]
反応ナビゲーションと経路計画のソフトウェアを組み込んだ視覚補綴用拡張現実ナビゲーションシステムを提案する。
対象を地図上に配置し、対象の軌道を計画し、対象に示し、障害なく再計画する。
その結果,目標を達成するための時間と距離を減らし,障害物衝突の回数を大幅に減らし,航法性能の向上を図っている。
論文 参考訳(メタデータ) (2021-09-30T09:41:40Z) - ViNG: Learning Open-World Navigation with Visual Goals [82.84193221280216]
視覚的目標達成のための学習に基づくナビゲーションシステムを提案する。
提案手法は,我々がvingと呼ぶシステムが,目標条件強化学習のための提案手法を上回っていることを示す。
我々は、ラストマイル配送や倉庫検査など、現実の多くのアプリケーションでViNGを実演する。
論文 参考訳(メタデータ) (2020-12-17T18:22:32Z) - Unsupervised Domain Adaptation for Visual Navigation [115.85181329193092]
視覚ナビゲーションのための教師なし領域適応手法を提案する。
本手法では,対象領域の画像をソース領域に変換し,ナビゲーションポリシで学習した表現と一致するようにする。
論文 参考訳(メタデータ) (2020-10-27T18:22:43Z) - On Embodied Visual Navigation in Real Environments Through Habitat [20.630139085937586]
ディープラーニングに基づくビジュアルナビゲーションモデルは、大量の視覚的観察に基づいてトレーニングされた場合、効果的なポリシーを学ぶことができる。
この制限に対処するため、仮想環境における視覚ナビゲーションポリシーを効率的に訓練するためのシミュレーションプラットフォームがいくつか提案されている。
本研究では,実世界の航法ピソードを走らせることなく,実世界の観測における航法方針の訓練と評価を効果的に行うことができることを示す。
論文 参考訳(メタデータ) (2020-10-26T09:19:07Z) - Learning to Move with Affordance Maps [57.198806691838364]
物理的な空間を自律的に探索し、ナビゲートする能力は、事実上あらゆる移動型自律エージェントの基本的な要件である。
従来のSLAMベースの探索とナビゲーションのアプローチは、主にシーン幾何学の活用に重点を置いている。
学習可能な余剰マップは探索と航法の両方において従来のアプローチの強化に利用でき、性能が大幅に向上することを示します。
論文 参考訳(メタデータ) (2020-01-08T04:05:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。