論文の概要: A Few Shot Adaptation of Visual Navigation Skills to New Observations
using Meta-Learning
- arxiv url: http://arxiv.org/abs/2011.03609v3
- Date: Fri, 4 Jun 2021 18:30:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-29 05:18:01.414599
- Title: A Few Shot Adaptation of Visual Navigation Skills to New Observations
using Meta-Learning
- Title(参考訳): メタラーニングによる視覚ナビゲーションスキルの新たな観察への適応
- Authors: Qian Luo, Maks Sorokin, Sehoon Ha
- Abstract要約: 本稿では,新しいセンサ構成やターゲットオブジェクトへの迅速な適応を可能にする学習アルゴリズムを提案する。
実験の結果,学習したナビゲーションポリシーを,未知の状況に対してわずか3ショットで適用できることが判明した。
- 参考スコア(独自算出の注目度): 12.771506155747893
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Target-driven visual navigation is a challenging problem that requires a
robot to find the goal using only visual inputs. Many researchers have
demonstrated promising results using deep reinforcement learning (deep RL) on
various robotic platforms, but typical end-to-end learning is known for its
poor extrapolation capability to new scenarios. Therefore, learning a
navigation policy for a new robot with a new sensor configuration or a new
target still remains a challenging problem. In this paper, we introduce a
learning algorithm that enables rapid adaptation to new sensor configurations
or target objects with a few shots. We design a policy architecture with latent
features between perception and inference networks and quickly adapt the
perception network via meta-learning while freezing the inference network. Our
experiments show that our algorithm adapts the learned navigation policy with
only three shots for unseen situations with different sensor configurations or
different target colors. We also analyze the proposed algorithm by
investigating various hyperparameters.
- Abstract(参考訳): ターゲット駆動型視覚ナビゲーションは、視覚入力のみを使用して目標を見つけるロボットを必要とする難しい問題である。
多くの研究者は、様々なロボットプラットフォーム上で深層強化学習(deep reinforcement learning, ディープRL)を用いた有望な結果を実証してきたが、典型的なエンドツーエンド学習は、新しいシナリオへの補間能力の欠如で知られている。
したがって、新しいセンサー設定や新しいターゲットを備えた新しいロボットのナビゲーションポリシーを学ぶことは依然として難しい課題である。
本稿では,新しいセンサ構成や対象オブジェクトに対して,数回のショットで迅速に適応できる学習アルゴリズムを提案する。
知覚ネットワークと推論ネットワークの間に潜在的な特徴を持つポリシアーキテクチャを設計し,推論ネットワークを凍結しながら,メタラーニングを通じて知覚ネットワークを迅速に適応させる。
実験の結果,センサ構成やターゲット色が異なる状況下で,学習したナビゲーションポリシーを3ショットで適用できることが判明した。
また,提案アルゴリズムを様々なハイパーパラメータを用いて解析する。
関連論文リスト
- NoMaD: Goal Masked Diffusion Policies for Navigation and Exploration [57.15811390835294]
本稿では,目標指向ナビゲーションと目標非依存探索の両方を扱うために,単一の統合拡散政策をトレーニングする方法について述べる。
この統一された政策は、新しい環境における目標を視覚的に示す際に、全体的な性能が向上することを示す。
実世界の移動ロボットプラットフォーム上で実施した実験は,5つの代替手法と比較して,見えない環境における効果的なナビゲーションを示す。
論文 参考訳(メタデータ) (2023-10-11T21:07:14Z) - Robot path planning using deep reinforcement learning [0.0]
強化学習法は、地図のないナビゲーションタスクに代わる手段を提供する。
障害物回避と目標指向ナビゲーションタスクの両方に深部強化学習エージェントを実装した。
報酬関数の変更によるエージェントの挙動と性能の変化を解析する。
論文 参考訳(メタデータ) (2023-02-17T20:08:59Z) - See What the Robot Can't See: Learning Cooperative Perception for Visual
Navigation [11.943412856714154]
センサをトレーニングして、関連する視点情報を移動ロボットにエンコードし、伝達する。
我々は、全てのセンサーが目標への最短経路に沿って方向を予測できるようにするという課題を克服する。
その結果,センサとロボットの通信により,SPLの最大2.0倍の改善が達成された。
論文 参考訳(メタデータ) (2022-08-01T11:37:01Z) - Infrared Small-Dim Target Detection with Transformer under Complex
Backgrounds [155.388487263872]
変換器を用いた赤外線小径目標検出手法を提案する。
画像特徴の相互作用情報をより広い範囲で学習するために,変換器の自己認識機構を採用する。
最小限のターゲットの機能を学習するための機能拡張モジュールも設計しています。
論文 参考訳(メタデータ) (2021-09-29T12:23:41Z) - Deep Learning for Embodied Vision Navigation: A Survey [108.13766213265069]
身体的視覚ナビゲーション」問題では、エージェントが3D環境をナビゲートする必要がある。
本稿では、総合的な文献調査を提供することで、視覚ナビゲーションの具体的分野における現在の研究の概要を確立することを試みる。
論文 参考訳(メタデータ) (2021-07-07T12:09:04Z) - XAI-N: Sensor-based Robot Navigation using Expert Policies and Decision
Trees [55.9643422180256]
本稿では,ロボットの密集した動的環境における衝突のない軌道を計算するためのセンサベース学習ナビゲーションアルゴリズムを提案する。
我々のアプローチは、sim2realパラダイムを用いて訓練された深層強化学習に基づくエキスパートポリシーを使用する。
シミュレーション環境でのアルゴリズムの利点を強調し、移動中の歩行者の間でClearpath Jackalロボットをナビゲートする。
論文 参考訳(メタデータ) (2021-04-22T01:33:10Z) - ViNG: Learning Open-World Navigation with Visual Goals [82.84193221280216]
視覚的目標達成のための学習に基づくナビゲーションシステムを提案する。
提案手法は,我々がvingと呼ぶシステムが,目標条件強化学習のための提案手法を上回っていることを示す。
我々は、ラストマイル配送や倉庫検査など、現実の多くのアプリケーションでViNGを実演する。
論文 参考訳(メタデータ) (2020-12-17T18:22:32Z) - Visual Perception Generalization for Vision-and-Language Navigation via
Meta-Learning [9.519596058757033]
VLN(Vision-and-Language Navigation)は、自然言語の指示やリアルタイムで受信した視覚情報を理解することによって、エージェントが現実世界の環境をナビゲートする必要がある課題である。
本研究では、メタラーニングに基づく視覚認識一般化戦略を提案する。これにより、エージェントは数回のショットで新しいカメラ構成に迅速に適応することができる。
論文 参考訳(メタデータ) (2020-12-10T04:10:04Z) - Robot Perception enables Complex Navigation Behavior via Self-Supervised
Learning [23.54696982881734]
本稿では、強化学習(RL)によるアクティブな目標駆動ナビゲーションタスクのためのロボット認識システムの統合手法を提案する。
提案手法は,1つの画像列から直接自己スーパービジョンを用いて得られる,コンパクトな動きと視覚知覚データを時間的に組み込む。
我々は,新しいインタラクティブなCityLearnフレームワークを用いて,実世界の運転データセットであるKITTIとOxford RobotCarのアプローチを実証した。
論文 参考訳(メタデータ) (2020-06-16T07:45:47Z) - Improving Target-driven Visual Navigation with Attention on 3D Spatial
Relationships [52.72020203771489]
3次元屋内シーンにおける深部強化学習(DRL)を用いた目標駆動型視覚ナビゲーションについて検討した。
提案手法は視覚特徴と3次元空間表現を組み合わせてナビゲーションポリシーを学習する。
AI2-THORで実施した我々の実験は、SRとSPLの指標において、モデルがベースラインを上回っていることを示している。
論文 参考訳(メタデータ) (2020-04-29T08:46:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。