論文の概要: Unsupervised Domain Adaptation for Visual Navigation
- arxiv url: http://arxiv.org/abs/2010.14543v2
- Date: Thu, 12 Nov 2020 17:41:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-02 11:48:54.075497
- Title: Unsupervised Domain Adaptation for Visual Navigation
- Title(参考訳): 視覚ナビゲーションのための教師なしドメイン適応
- Authors: Shangda Li, Devendra Singh Chaplot, Yao-Hung Hubert Tsai, Yue Wu,
Louis-Philippe Morency, Ruslan Salakhutdinov
- Abstract要約: 視覚ナビゲーションのための教師なし領域適応手法を提案する。
本手法では,対象領域の画像をソース領域に変換し,ナビゲーションポリシで学習した表現と一致するようにする。
- 参考スコア(独自算出の注目度): 115.85181329193092
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Advances in visual navigation methods have led to intelligent embodied
navigation agents capable of learning meaningful representations from raw RGB
images and perform a wide variety of tasks involving structural and semantic
reasoning. However, most learning-based navigation policies are trained and
tested in simulation environments. In order for these policies to be
practically useful, they need to be transferred to the real-world. In this
paper, we propose an unsupervised domain adaptation method for visual
navigation. Our method translates the images in the target domain to the source
domain such that the translation is consistent with the representations learned
by the navigation policy. The proposed method outperforms several baselines
across two different navigation tasks in simulation. We further show that our
method can be used to transfer the navigation policies learned in simulation to
the real world.
- Abstract(参考訳): ビジュアルナビゲーション手法の進歩により、インボディードナビゲーションエージェントは生のRGB画像から意味のある表現を学習し、構造的および意味論的推論を含む幅広いタスクを実行することができるようになった。
しかし、ほとんどの学習に基づくナビゲーションポリシーは、シミュレーション環境で訓練され、テストされる。
これらの方針が実際に有用になるためには、現実の世界に移される必要がある。
本稿では,視覚ナビゲーションのための教師なし領域適応手法を提案する。
本手法は,ナビゲーションポリシーによって学習された表現と一致するように,対象領域内の画像をソース領域に翻訳する。
提案手法は2つの異なるナビゲーションタスクにまたがる複数のベースラインをシミュレーションで上回っている。
さらに本手法は,シミュレーションで学んだナビゲーションポリシーを実世界へ転送するためにも有効であることを示す。
関連論文リスト
- MC-GPT: Empowering Vision-and-Language Navigation with Memory Map and Reasoning Chains [4.941781282578696]
Vision-and-Language Navigation (VLN)タスクでは、エージェントは自然言語の指示に従って目的地に向かう必要がある。
学習ベースのアプローチはタスクに対する主要な解決策だが、高いトレーニングコストと解釈可能性の欠如に悩まされている。
近年、Large Language Models (LLMs) は強力な一般化能力のため、VLNにとって有望なツールとして登場した。
論文 参考訳(メタデータ) (2024-05-17T08:33:27Z) - NoMaD: Goal Masked Diffusion Policies for Navigation and Exploration [57.15811390835294]
本稿では,目標指向ナビゲーションと目標非依存探索の両方を扱うために,単一の統合拡散政策をトレーニングする方法について述べる。
この統一された政策は、新しい環境における目標を視覚的に示す際に、全体的な性能が向上することを示す。
実世界の移動ロボットプラットフォーム上で実施した実験は,5つの代替手法と比較して,見えない環境における効果的なナビゲーションを示す。
論文 参考訳(メタデータ) (2023-10-11T21:07:14Z) - LangNav: Language as a Perceptual Representation for Navigation [63.90602960822604]
視覚・言語ナビゲーション(VLN)における知覚表現としての言語の利用について検討する。
提案手法では,画像キャプションや物体検出に市販の視覚システムを用いて,エージェントのエゴセントリックなパノラマビューを各ステップで自然言語記述に変換する。
論文 参考訳(メタデータ) (2023-10-11T20:52:30Z) - Learning Navigational Visual Representations with Semantic Map
Supervision [85.91625020847358]
エージェントの自我中心のビューとセマンティックマップを対比してナビゲーション固有の視覚表現学習法を提案する。
Ego$2$-Map学習は、オブジェクト、構造、遷移などのコンパクトでリッチな情報を、ナビゲーションのためのエージェントのエゴセントリックな表現に転送する。
論文 参考訳(メタデータ) (2023-07-23T14:01:05Z) - Virtual Guidance as a Mid-level Representation for Navigation [8.712750753534532]
仮想誘導」は視覚的でない命令信号を視覚的に表現するように設計されている。
シミュレーションと実世界の両方の環境で実験を行い,提案手法の評価を行った。
論文 参考訳(メタデータ) (2023-03-05T17:55:15Z) - Navigating to Objects in the Real World [76.1517654037993]
本稿では,古典的,モジュール的,エンド・ツー・エンドの学習手法と比較した,意味的視覚ナビゲーション手法に関する大規模な実証的研究について述べる。
モジュラー学習は実世界ではうまく機能し、90%の成功率に達しています。
対照的に、エンド・ツー・エンドの学習は、シミュレーションと現実の間の画像領域の差が大きいため、77%のシミュレーションから23%の実際の成功率へと低下する。
論文 参考訳(メタデータ) (2022-12-02T01:10:47Z) - UAS Navigation in the Real World Using Visual Observation [0.4297070083645048]
本稿では,実世界における長距離ビジュアルナビゲーションのためのUASナビゲーション手法を提案する。
本システムは,強化学習(RL)と画像マッチング手法を組み合わせたシステムである。
我々は,UASが現実のシナリオにおいて最短経路で出発点から数百メートル離れた目的地への航路を学習できることを実証した。
論文 参考訳(メタデータ) (2022-08-25T14:40:53Z) - ViNG: Learning Open-World Navigation with Visual Goals [82.84193221280216]
視覚的目標達成のための学習に基づくナビゲーションシステムを提案する。
提案手法は,我々がvingと呼ぶシステムが,目標条件強化学習のための提案手法を上回っていることを示す。
我々は、ラストマイル配送や倉庫検査など、現実の多くのアプリケーションでViNGを実演する。
論文 参考訳(メタデータ) (2020-12-17T18:22:32Z) - On Embodied Visual Navigation in Real Environments Through Habitat [20.630139085937586]
ディープラーニングに基づくビジュアルナビゲーションモデルは、大量の視覚的観察に基づいてトレーニングされた場合、効果的なポリシーを学ぶことができる。
この制限に対処するため、仮想環境における視覚ナビゲーションポリシーを効率的に訓練するためのシミュレーションプラットフォームがいくつか提案されている。
本研究では,実世界の航法ピソードを走らせることなく,実世界の観測における航法方針の訓練と評価を効果的に行うことができることを示す。
論文 参考訳(メタデータ) (2020-10-26T09:19:07Z) - Embodied Visual Navigation with Automatic Curriculum Learning in Real
Environments [20.017277077448924]
NavACLは、ナビゲーションタスクに適した自動カリキュラム学習の方法である。
NavACLを用いて訓練した深層強化学習剤は、均一サンプリングで訓練した最先端エージェントよりも有意に優れていた。
我々のエージェントは、未知の乱雑な屋内環境から、RGB画像のみを使用して意味的に特定されたターゲットへ移動することができる。
論文 参考訳(メタデータ) (2020-09-11T13:28:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。