論文の概要: Vision based Virtual Guidance for Navigation
- arxiv url: http://arxiv.org/abs/2303.02731v1
- Date: Sun, 5 Mar 2023 17:55:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-07 18:06:55.067210
- Title: Vision based Virtual Guidance for Navigation
- Title(参考訳): 視覚に基づくナビゲーションのための仮想誘導
- Authors: Hsuan-Kung Yang, Yu-Ying Chen, Tsung-Chih Chiang, Chia-Chuan Hsu,
Chun-Chia Huang, Chun-Wei Huang, Jou-Min Liu, Ting-Ru Liu, Tsu-Ching Hsiao,
and Chun-Yi Lee
- Abstract要約: 本報告では,ナビゲーション性能の異なる仮想誘導方式の可能性について検討する。
仮想誘導信号の3つのスキームは、仮想ナビゲーションパス、仮想ウェイポイント、両方の組み合わせである。
その結果、仮想誘導により、エージェントにより意味のあるナビゲーション情報を提供し、パス完了率とナビゲーション効率の点で、より良いパフォーマンスが得られることがわかった。
- 参考スコア(独自算出の注目度): 10.907849428688765
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: This paper explores the impact of virtual guidance on mid-level
representation-based navigation, where an agent performs navigation tasks based
solely on visual observations. Instead of providing distance measures or
numerical directions to guide the agent, which may be difficult for it to
interpret visually, the paper investigates the potential of different forms of
virtual guidance schemes on navigation performance. Three schemes of virtual
guidance signals are explored: virtual navigation path, virtual waypoints, and
a combination of both. The experiments were conducted using a virtual city
built with the Unity engine to train the agents while avoiding obstacles. The
results show that virtual guidance provides the agent with more meaningful
navigation information and achieves better performance in terms of path
completion rates and navigation efficiency. In addition, a set of analyses were
provided to investigate the failure cases and the navigated trajectories, and a
pilot study was conducted for the real-world scenarios.
- Abstract(参考訳): 本稿では,エージェントが視覚観察のみに基づいてナビゲーションタスクを実行する中レベルの表現ベースナビゲーションにおける仮想ガイダンスの効果について検討する。
本論文は, エージェントを案内するための距離尺度や数値方向を提供する代わりに, 様々な形態の仮想誘導スキームのナビゲーション性能への影響について検討した。
仮想誘導信号の3つのスキームは、仮想ナビゲーションパス、仮想ウェイポイント、両方の組み合わせである。
実験は、Unityエンジンを搭載した仮想都市を使用して、障害物を避けながらエージェントを訓練した。
その結果,仮想誘導はエージェントに対してより有意義なナビゲーション情報を提供し,経路完成率とナビゲーション効率の面で,より優れた性能が得られることがわかった。
さらに,故障事例と走行軌道を調査するための一連の分析を行い,実世界のシナリオを対象としたパイロット実験を行った。
関連論文リスト
- Flex: End-to-End Text-Instructed Visual Navigation with Foundation Models [59.892436892964376]
本稿では,視覚に基づく制御ポリシを用いて,ロバストな閉ループ性能を実現するために必要な最小限のデータ要件とアーキテクチャ適応について検討する。
この知見はFlex (Fly-lexically) で合成され,VLM(Vision Language Models) をフリーズしたパッチワイド特徴抽出器として利用するフレームワークである。
本研究では,本手法が4段階のフライ・トゥ・ターゲットタスクにおいて有効であることを示す。
論文 参考訳(メタデータ) (2024-10-16T19:59:31Z) - IN-Sight: Interactive Navigation through Sight [20.184155117341497]
IN-Sightは自己監督型パスプランニングの新しいアプローチである。
可逆性のスコアを計算し、セマンティックマップに組み込む。
障害物を正確に回避するために、IN-Sightはローカルプランナーを使用している。
論文 参考訳(メタデータ) (2024-08-01T07:27:54Z) - Gaussian Splatting to Real World Flight Navigation Transfer with Liquid Networks [93.38375271826202]
本研究では,シミュレート・トゥ・リアルな視覚四重項ナビゲーションタスクにおける分布シフトに対する一般化とロバスト性を改善する手法を提案する。
まず,擬似飛行力学とガウススプラッティングを統合してシミュレータを構築し,その後,液状ニューラルネットワークを用いてロバストなナビゲーションポリシーを訓練する。
このようにして、我々は3次元ガウススプラッティングラディアンス場レンダリング、専門家による実演訓練データのプログラミング、およびLiquid Networkのタスク理解能力の進歩を組み合わせたフルスタックの模倣学習プロトコルを得る。
論文 参考訳(メタデータ) (2024-06-21T13:48:37Z) - Robust Navigation with Cross-Modal Fusion and Knowledge Transfer [16.529923581195753]
移動ロボットの一般化に関する問題点を考察する。
一般化のためのクロスモーダル融合法と知識伝達フレームワークを提案する。
教師の行動と表現を模倣することにより、学生はノイズの多いマルチモーダル入力から特徴を調整できる。
論文 参考訳(メタデータ) (2023-09-23T05:16:35Z) - Learning Navigational Visual Representations with Semantic Map
Supervision [85.91625020847358]
エージェントの自我中心のビューとセマンティックマップを対比してナビゲーション固有の視覚表現学習法を提案する。
Ego$2$-Map学習は、オブジェクト、構造、遷移などのコンパクトでリッチな情報を、ナビゲーションのためのエージェントのエゴセントリックな表現に転送する。
論文 参考訳(メタデータ) (2023-07-23T14:01:05Z) - Navigating to Objects in the Real World [76.1517654037993]
本稿では,古典的,モジュール的,エンド・ツー・エンドの学習手法と比較した,意味的視覚ナビゲーション手法に関する大規模な実証的研究について述べる。
モジュラー学習は実世界ではうまく機能し、90%の成功率に達しています。
対照的に、エンド・ツー・エンドの学習は、シミュレーションと現実の間の画像領域の差が大きいため、77%のシミュレーションから23%の実際の成功率へと低下する。
論文 参考訳(メタデータ) (2022-12-02T01:10:47Z) - Image-based Navigation in Real-World Environments via Multiple Mid-level
Representations: Fusion Models, Benchmark and Efficient Evaluation [13.207579081178716]
近年の学習に基づくナビゲーション手法では,エージェントのシーン理解とナビゲーション能力が同時に実現されている。
残念ながら、シミュレーターがナビゲーションポリシーを訓練する効率的なツールであるとしても、現実の世界に移動すると、結果のモデルは失敗することが多い。
可能な解決策の1つは、シーンの重要なドメイン不変性を含む中間レベルの視覚表現を備えたナビゲーションモデルを提供することである。
論文 参考訳(メタデータ) (2022-02-02T15:00:44Z) - ViNG: Learning Open-World Navigation with Visual Goals [82.84193221280216]
視覚的目標達成のための学習に基づくナビゲーションシステムを提案する。
提案手法は,我々がvingと呼ぶシステムが,目標条件強化学習のための提案手法を上回っていることを示す。
我々は、ラストマイル配送や倉庫検査など、現実の多くのアプリケーションでViNGを実演する。
論文 参考訳(メタデータ) (2020-12-17T18:22:32Z) - Unsupervised Domain Adaptation for Visual Navigation [115.85181329193092]
視覚ナビゲーションのための教師なし領域適応手法を提案する。
本手法では,対象領域の画像をソース領域に変換し,ナビゲーションポリシで学習した表現と一致するようにする。
論文 参考訳(メタデータ) (2020-10-27T18:22:43Z) - On Embodied Visual Navigation in Real Environments Through Habitat [20.630139085937586]
ディープラーニングに基づくビジュアルナビゲーションモデルは、大量の視覚的観察に基づいてトレーニングされた場合、効果的なポリシーを学ぶことができる。
この制限に対処するため、仮想環境における視覚ナビゲーションポリシーを効率的に訓練するためのシミュレーションプラットフォームがいくつか提案されている。
本研究では,実世界の航法ピソードを走らせることなく,実世界の観測における航法方針の訓練と評価を効果的に行うことができることを示す。
論文 参考訳(メタデータ) (2020-10-26T09:19:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。