論文の概要: Virtual Guidance as a Mid-level Representation for Navigation
- arxiv url: http://arxiv.org/abs/2303.02731v2
- Date: Sun, 17 Sep 2023 12:47:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-20 00:41:04.816076
- Title: Virtual Guidance as a Mid-level Representation for Navigation
- Title(参考訳): ナビゲーションの中間レベル表現としての仮想ガイダンス
- Authors: Hsuan-Kung Yang, Tsung-Chih Chiang, Ting-Ru Liu, Chun-Wei Huang,
Jou-Min Liu, Chun-Yi Lee
- Abstract要約: 仮想誘導」は視覚的でない命令信号を視覚的に表現するように設計されている。
シミュレーションと実世界の両方の環境で実験を行い,提案手法の評価を行った。
- 参考スコア(独自算出の注目度): 8.712750753534532
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In the context of autonomous navigation, effectively conveying abstract
navigational cues to agents in dynamic environments poses challenges,
particularly when the navigation information is multimodal. To address this
issue, the paper introduces a novel technique termed "Virtual Guidance," which
is designed to visually represent non-visual instructional signals. These
visual cues, rendered as colored paths or spheres, are overlaid onto the
agent's camera view, serving as easily comprehensible navigational
instructions. We evaluate our proposed method through experiments in both
simulated and real-world settings. In the simulated environments, our virtual
guidance outperforms baseline hybrid approaches in several metrics, including
adherence to planned routes and obstacle avoidance. Furthermore, we extend the
concept of virtual guidance to transform text-prompt-based instructions into a
visually intuitive format for real-world experiments. Our results validate the
adaptability of virtual guidance and its efficacy in enabling policy transfer
from simulated scenarios to real-world ones.
- Abstract(参考訳): 自律ナビゲーションの文脈では、動的環境のエージェントに抽象的なナビゲーションキューを効果的に伝達することは、特にナビゲーション情報がマルチモーダルである場合、課題を引き起こす。
この問題に対処するために,非視覚的指示信号の視覚的表現を目的とした「仮想誘導」と呼ばれる新しい手法を提案する。
これらの視覚的な手がかりは、色付きパスまたは球面として表現され、エージェントのカメラビューにオーバーレイされ、容易に理解可能なナビゲーション指示として機能する。
本手法はシミュレーションと実環境における実験を通して評価する。
シミュレーション環境では,仮想ガイダンスは,計画経路の順守や障害物回避など,ベースラインハイブリッドアプローチよりも優れている。
さらに,実世界実験のために,テキスト入力に基づく命令を視覚的に直感的な形式に変換するための仮想指導の概念を拡張する。
本研究は,仮想ガイダンスの適応性とその効果を検証し,シミュレーションシナリオから実世界へのポリシー移行を可能にする。
関連論文リスト
- Learning Navigational Visual Representations with Semantic Map
Supervision [85.91625020847358]
エージェントの自我中心のビューとセマンティックマップを対比してナビゲーション固有の視覚表現学習法を提案する。
Ego$2$-Map学習は、オブジェクト、構造、遷移などのコンパクトでリッチな情報を、ナビゲーションのためのエージェントのエゴセントリックな表現に転送する。
論文 参考訳(メタデータ) (2023-07-23T14:01:05Z) - Image-based Navigation in Real-World Environments via Multiple Mid-level
Representations: Fusion Models, Benchmark and Efficient Evaluation [0.0]
近年の学習に基づくナビゲーション手法では,エージェントのシーン理解とナビゲーション能力が同時に実現されている。
残念ながら、シミュレーターがナビゲーションポリシーを訓練する効率的なツールであるとしても、現実の世界に移動すると、結果のモデルは失敗することが多い。
可能な解決策の1つは、シーンの重要なドメイン不変性を含む中間レベルの視覚表現を備えたナビゲーションモデルを提供することである。
論文 参考訳(メタデータ) (2022-02-02T15:00:44Z) - Augmented reality navigation system for visual prosthesis [67.09251544230744]
反応ナビゲーションと経路計画のソフトウェアを組み込んだ視覚補綴用拡張現実ナビゲーションシステムを提案する。
対象を地図上に配置し、対象の軌道を計画し、対象に示し、障害なく再計画する。
その結果,目標を達成するための時間と距離を減らし,障害物衝突の回数を大幅に減らし,航法性能の向上を図っている。
論文 参考訳(メタデータ) (2021-09-30T09:41:40Z) - Deep Learning for Embodied Vision Navigation: A Survey [108.13766213265069]
身体的視覚ナビゲーション」問題では、エージェントが3D環境をナビゲートする必要がある。
本稿では、総合的な文献調査を提供することで、視覚ナビゲーションの具体的分野における現在の研究の概要を確立することを試みる。
論文 参考訳(メタデータ) (2021-07-07T12:09:04Z) - Diagnosing Vision-and-Language Navigation: What Really Matters [61.72935815656582]
視覚言語ナビゲーション(VLN)は、エージェントが自然言語の指示に従って視覚環境をナビゲートするマルチモーダルタスクである。
近年の研究では、室内および屋外のVLNタスクのパフォーマンス改善が鈍化している。
本研究では,ナビゲーション中のエージェントの焦点を明らかにするための一連の診断実験を行う。
論文 参考訳(メタデータ) (2021-03-30T17:59:07Z) - Unsupervised Domain Adaptation for Visual Navigation [115.85181329193092]
視覚ナビゲーションのための教師なし領域適応手法を提案する。
本手法では,対象領域の画像をソース領域に変換し,ナビゲーションポリシで学習した表現と一致するようにする。
論文 参考訳(メタデータ) (2020-10-27T18:22:43Z) - On Embodied Visual Navigation in Real Environments Through Habitat [20.630139085937586]
ディープラーニングに基づくビジュアルナビゲーションモデルは、大量の視覚的観察に基づいてトレーニングされた場合、効果的なポリシーを学ぶことができる。
この制限に対処するため、仮想環境における視覚ナビゲーションポリシーを効率的に訓練するためのシミュレーションプラットフォームがいくつか提案されている。
本研究では,実世界の航法ピソードを走らせることなく,実世界の観測における航法方針の訓練と評価を効果的に行うことができることを示す。
論文 参考訳(メタデータ) (2020-10-26T09:19:07Z) - Active Visual Information Gathering for Vision-Language Navigation [115.40768457718325]
視覚言語ナビゲーション(VLN)は、エージェントがフォトリアリスティックな環境の中でナビゲーションの指示を行うためのタスクである。
VLNの重要な課題の1つは、曖昧な指示による不確実性を緩和し、環境の観察を不十分にすることで、堅牢なナビゲーションを行う方法である。
この研究は、人間のナビゲーション行動からインスピレーションを得て、よりインテリジェントなVLNポリシーのためのアクティブな情報収集能力を持つエージェントを提供する。
論文 参考訳(メタデータ) (2020-07-15T23:54:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。