論文の概要: UAS Navigation in the Real World Using Visual Observation
- arxiv url: http://arxiv.org/abs/2208.12125v1
- Date: Thu, 25 Aug 2022 14:40:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-26 13:54:59.308915
- Title: UAS Navigation in the Real World Using Visual Observation
- Title(参考訳): 視覚観測による実世界のUASナビゲーション
- Authors: Yuci Han, Jianli Wei, Alper Yilmaz
- Abstract要約: 本稿では,実世界における長距離ビジュアルナビゲーションのためのUASナビゲーション手法を提案する。
本システムは,強化学習(RL)と画像マッチング手法を組み合わせたシステムである。
我々は,UASが現実のシナリオにおいて最短経路で出発点から数百メートル離れた目的地への航路を学習できることを実証した。
- 参考スコア(独自算出の注目度): 0.4297070083645048
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents a novel end-to-end Unmanned Aerial System (UAS)
navigation approach for long-range visual navigation in the real world.
Inspired by dual-process visual navigation system of human's instinct:
environment understanding and landmark recognition, we formulate the UAS
navigation task into two same phases. Our system combines the reinforcement
learning (RL) and image matching approaches. First, the agent learns the
navigation policy using RL in the specified environment. To achieve this, we
design an interactive UASNAV environment for the training process. Once the
agent learns the navigation policy, which means 'familiarized themselves with
the environment', we let the UAS fly in the real world to recognize the
landmarks using image matching method and take action according to the learned
policy. During the navigation process, the UAS is embedded with single camera
as the only visual sensor. We demonstrate that the UAS can learn navigating to
the destination hundreds meters away from the starting point with the shortest
path in the real world scenario.
- Abstract(参考訳): 本稿では、現実世界における長距離視覚ナビゲーションのための、新しいエンドツーエンド無人航空システム(uas)ナビゲーション手法を提案する。
環境理解とランドマーク認識という,人間の本能の二重プロセス視覚ナビゲーションシステムに着想を得て,UASナビゲーションタスクを2つの相に定式化する。
本システムは,強化学習(RL)と画像マッチングを併用する。
まず、エージェントは、指定された環境でRLを用いてナビゲーションポリシーを学習する。
そこで我々は,トレーニングプロセスのための対話型UASNAV環境を設計する。
エージェントが「環境に慣れている」という意味のナビゲーションポリシーを学習すると、UASは画像マッチング手法を用いてランドマークを認識させ、学習されたポリシーに従って行動を取る。
ナビゲーションプロセスの間、UASは唯一の視覚センサーとして単一のカメラが埋め込まれている。
我々は,UASが現実のシナリオにおいて最短経路で出発点から数百メートル離れた目的地への航路を学習できることを実証した。
関連論文リスト
- Learning Navigational Visual Representations with Semantic Map
Supervision [85.91625020847358]
エージェントの自我中心のビューとセマンティックマップを対比してナビゲーション固有の視覚表現学習法を提案する。
Ego$2$-Map学習は、オブジェクト、構造、遷移などのコンパクトでリッチな情報を、ナビゲーションのためのエージェントのエゴセントリックな表現に転送する。
論文 参考訳(メタデータ) (2023-07-23T14:01:05Z) - ETPNav: Evolving Topological Planning for Vision-Language Navigation in
Continuous Environments [56.194988818341976]
視覚言語ナビゲーションは、エージェントが環境中をナビゲートするための指示に従う必要があるタスクである。
本研究では,1)環境を抽象化し,長距離航法計画を生成する能力,2)連続環境における障害物回避制御能力の2つの重要なスキルに焦点を当てたETPNavを提案する。
ETPNavは、R2R-CEとRxR-CEデータセットの先行技術よりも10%以上、20%改善されている。
論文 参考訳(メタデータ) (2023-04-06T13:07:17Z) - Pushing it out of the Way: Interactive Visual Navigation [62.296686176988125]
エージェントが目標に合わせてより効率的にナビゲートするために環境を変更することを学ぶインタラクティブナビゲーションの問題を研究します。
エージェントの行動によって引き起こされる環境の変化を明示的に予測するために,neural interaction engine(nie)を導入する。
計画中の変更をモデル化することで、エージェントがナビゲーション能力を大幅に改善できることが分かりました。
論文 参考訳(メタデータ) (2021-04-28T22:46:41Z) - ViNG: Learning Open-World Navigation with Visual Goals [82.84193221280216]
視覚的目標達成のための学習に基づくナビゲーションシステムを提案する。
提案手法は,我々がvingと呼ぶシステムが,目標条件強化学習のための提案手法を上回っていることを示す。
我々は、ラストマイル配送や倉庫検査など、現実の多くのアプリケーションでViNGを実演する。
論文 参考訳(メタデータ) (2020-12-17T18:22:32Z) - Unsupervised Domain Adaptation for Visual Navigation [115.85181329193092]
視覚ナビゲーションのための教師なし領域適応手法を提案する。
本手法では,対象領域の画像をソース領域に変換し,ナビゲーションポリシで学習した表現と一致するようにする。
論文 参考訳(メタデータ) (2020-10-27T18:22:43Z) - Embodied Visual Navigation with Automatic Curriculum Learning in Real
Environments [20.017277077448924]
NavACLは、ナビゲーションタスクに適した自動カリキュラム学習の方法である。
NavACLを用いて訓練した深層強化学習剤は、均一サンプリングで訓練した最先端エージェントよりも有意に優れていた。
我々のエージェントは、未知の乱雑な屋内環境から、RGB画像のみを使用して意味的に特定されたターゲットへ移動することができる。
論文 参考訳(メタデータ) (2020-09-11T13:28:26Z) - Active Visual Information Gathering for Vision-Language Navigation [115.40768457718325]
視覚言語ナビゲーション(VLN)は、エージェントがフォトリアリスティックな環境の中でナビゲーションの指示を行うためのタスクである。
VLNの重要な課題の1つは、曖昧な指示による不確実性を緩和し、環境の観察を不十分にすることで、堅牢なナビゲーションを行う方法である。
この研究は、人間のナビゲーション行動からインスピレーションを得て、よりインテリジェントなVLNポリシーのためのアクティブな情報収集能力を持つエージェントを提供する。
論文 参考訳(メタデータ) (2020-07-15T23:54:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。