論文の概要: Virtual Guidance as a Mid-level Representation for Navigation
- arxiv url: http://arxiv.org/abs/2303.02731v2
- Date: Sun, 17 Sep 2023 12:47:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-20 00:41:04.816076
- Title: Virtual Guidance as a Mid-level Representation for Navigation
- Title(参考訳): ナビゲーションの中間レベル表現としての仮想ガイダンス
- Authors: Hsuan-Kung Yang, Tsung-Chih Chiang, Ting-Ru Liu, Chun-Wei Huang,
Jou-Min Liu, Chun-Yi Lee
- Abstract要約: 仮想誘導」は視覚的でない命令信号を視覚的に表現するように設計されている。
シミュレーションと実世界の両方の環境で実験を行い,提案手法の評価を行った。
- 参考スコア(独自算出の注目度): 8.712750753534532
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In the context of autonomous navigation, effectively conveying abstract
navigational cues to agents in dynamic environments poses challenges,
particularly when the navigation information is multimodal. To address this
issue, the paper introduces a novel technique termed "Virtual Guidance," which
is designed to visually represent non-visual instructional signals. These
visual cues, rendered as colored paths or spheres, are overlaid onto the
agent's camera view, serving as easily comprehensible navigational
instructions. We evaluate our proposed method through experiments in both
simulated and real-world settings. In the simulated environments, our virtual
guidance outperforms baseline hybrid approaches in several metrics, including
adherence to planned routes and obstacle avoidance. Furthermore, we extend the
concept of virtual guidance to transform text-prompt-based instructions into a
visually intuitive format for real-world experiments. Our results validate the
adaptability of virtual guidance and its efficacy in enabling policy transfer
from simulated scenarios to real-world ones.
- Abstract(参考訳): 自律ナビゲーションの文脈では、動的環境のエージェントに抽象的なナビゲーションキューを効果的に伝達することは、特にナビゲーション情報がマルチモーダルである場合、課題を引き起こす。
この問題に対処するために,非視覚的指示信号の視覚的表現を目的とした「仮想誘導」と呼ばれる新しい手法を提案する。
これらの視覚的な手がかりは、色付きパスまたは球面として表現され、エージェントのカメラビューにオーバーレイされ、容易に理解可能なナビゲーション指示として機能する。
本手法はシミュレーションと実環境における実験を通して評価する。
シミュレーション環境では,仮想ガイダンスは,計画経路の順守や障害物回避など,ベースラインハイブリッドアプローチよりも優れている。
さらに,実世界実験のために,テキスト入力に基づく命令を視覚的に直感的な形式に変換するための仮想指導の概念を拡張する。
本研究は,仮想ガイダンスの適応性とその効果を検証し,シミュレーションシナリオから実世界へのポリシー移行を可能にする。
関連論文リスト
- Robust Navigation with Cross-Modal Fusion and Knowledge Transfer [16.529923581195753]
移動ロボットの一般化に関する問題点を考察する。
一般化のためのクロスモーダル融合法と知識伝達フレームワークを提案する。
教師の行動と表現を模倣することにより、学生はノイズの多いマルチモーダル入力から特徴を調整できる。
論文 参考訳(メタデータ) (2023-09-23T05:16:35Z) - Learning Navigational Visual Representations with Semantic Map
Supervision [85.91625020847358]
エージェントの自我中心のビューとセマンティックマップを対比してナビゲーション固有の視覚表現学習法を提案する。
Ego$2$-Map学習は、オブジェクト、構造、遷移などのコンパクトでリッチな情報を、ナビゲーションのためのエージェントのエゴセントリックな表現に転送する。
論文 参考訳(メタデータ) (2023-07-23T14:01:05Z) - Navigating to Objects in the Real World [76.1517654037993]
本稿では,古典的,モジュール的,エンド・ツー・エンドの学習手法と比較した,意味的視覚ナビゲーション手法に関する大規模な実証的研究について述べる。
モジュラー学習は実世界ではうまく機能し、90%の成功率に達しています。
対照的に、エンド・ツー・エンドの学習は、シミュレーションと現実の間の画像領域の差が大きいため、77%のシミュレーションから23%の実際の成功率へと低下する。
論文 参考訳(メタデータ) (2022-12-02T01:10:47Z) - A Simulation Benchmark for Vision-based Autonomous Navigation [3.141160852597485]
この研究は、視覚に基づく自律ナビゲーションのためのシミュレーターベンチマークを導入する。
ベンチマークには、完全な自律的なビジュアルナビゲーションスタックのさまざまなコンポーネントのモジュール化された統合が含まれている。
論文 参考訳(メタデータ) (2022-03-24T12:51:10Z) - Image-based Navigation in Real-World Environments via Multiple Mid-level
Representations: Fusion Models, Benchmark and Efficient Evaluation [13.207579081178716]
近年の学習に基づくナビゲーション手法では,エージェントのシーン理解とナビゲーション能力が同時に実現されている。
残念ながら、シミュレーターがナビゲーションポリシーを訓練する効率的なツールであるとしても、現実の世界に移動すると、結果のモデルは失敗することが多い。
可能な解決策の1つは、シーンの重要なドメイン不変性を含む中間レベルの視覚表現を備えたナビゲーションモデルを提供することである。
論文 参考訳(メタデータ) (2022-02-02T15:00:44Z) - Augmented reality navigation system for visual prosthesis [67.09251544230744]
反応ナビゲーションと経路計画のソフトウェアを組み込んだ視覚補綴用拡張現実ナビゲーションシステムを提案する。
対象を地図上に配置し、対象の軌道を計画し、対象に示し、障害なく再計画する。
その結果,目標を達成するための時間と距離を減らし,障害物衝突の回数を大幅に減らし,航法性能の向上を図っている。
論文 参考訳(メタデータ) (2021-09-30T09:41:40Z) - ViNG: Learning Open-World Navigation with Visual Goals [82.84193221280216]
視覚的目標達成のための学習に基づくナビゲーションシステムを提案する。
提案手法は,我々がvingと呼ぶシステムが,目標条件強化学習のための提案手法を上回っていることを示す。
我々は、ラストマイル配送や倉庫検査など、現実の多くのアプリケーションでViNGを実演する。
論文 参考訳(メタデータ) (2020-12-17T18:22:32Z) - Unsupervised Domain Adaptation for Visual Navigation [115.85181329193092]
視覚ナビゲーションのための教師なし領域適応手法を提案する。
本手法では,対象領域の画像をソース領域に変換し,ナビゲーションポリシで学習した表現と一致するようにする。
論文 参考訳(メタデータ) (2020-10-27T18:22:43Z) - On Embodied Visual Navigation in Real Environments Through Habitat [20.630139085937586]
ディープラーニングに基づくビジュアルナビゲーションモデルは、大量の視覚的観察に基づいてトレーニングされた場合、効果的なポリシーを学ぶことができる。
この制限に対処するため、仮想環境における視覚ナビゲーションポリシーを効率的に訓練するためのシミュレーションプラットフォームがいくつか提案されている。
本研究では,実世界の航法ピソードを走らせることなく,実世界の観測における航法方針の訓練と評価を効果的に行うことができることを示す。
論文 参考訳(メタデータ) (2020-10-26T09:19:07Z) - Learning to Move with Affordance Maps [57.198806691838364]
物理的な空間を自律的に探索し、ナビゲートする能力は、事実上あらゆる移動型自律エージェントの基本的な要件である。
従来のSLAMベースの探索とナビゲーションのアプローチは、主にシーン幾何学の活用に重点を置いている。
学習可能な余剰マップは探索と航法の両方において従来のアプローチの強化に利用でき、性能が大幅に向上することを示します。
論文 参考訳(メタデータ) (2020-01-08T04:05:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。