論文の概要: VOILA: Visual-Observation-Only Imitation Learning for Autonomous
Navigation
- arxiv url: http://arxiv.org/abs/2105.09371v1
- Date: Wed, 19 May 2021 19:25:23 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-22 01:15:22.954246
- Title: VOILA: Visual-Observation-Only Imitation Learning for Autonomous
Navigation
- Title(参考訳): voila: 視覚観察のみの模倣学習による自律ナビゲーション
- Authors: Haresh Karnan, Garrett Warnell, Xuesu Xiao, Peter Stone
- Abstract要約: 我々は、自律ナビゲーションのための新しいアルゴリズム、視覚観察のみの模倣学習(VOILA)を導入する。
VOILAは、物理的に異なるエージェントから収集された単一のビデオデモからナビゲーションポリシーを学ぶ。
本稿では,VOILAが専門家を模倣するだけでなく,新しい環境に一般化可能なナビゲーションポリシーも学習していることを示す。
- 参考スコア(独自算出の注目度): 44.799092976955656
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While imitation learning for vision based autonomous mobile robot navigation
has recently received a great deal of attention in the research community,
existing approaches typically require state action demonstrations that were
gathered using the deployment platform. However, what if one cannot easily
outfit their platform to record these demonstration signals or worse yet the
demonstrator does not have access to the platform at all? Is imitation learning
for vision based autonomous navigation even possible in such scenarios? In this
work, we hypothesize that the answer is yes and that recent ideas from the
Imitation from Observation (IfO) literature can be brought to bear such that a
robot can learn to navigate using only ego centric video collected by a
demonstrator, even in the presence of viewpoint mismatch. To this end, we
introduce a new algorithm, Visual Observation only Imitation Learning for
Autonomous navigation (VOILA), that can successfully learn navigation policies
from a single video demonstration collected from a physically different agent.
We evaluate VOILA in the photorealistic AirSim simulator and show that VOILA
not only successfully imitates the expert, but that it also learns navigation
policies that can generalize to novel environments. Further, we demonstrate the
effectiveness of VOILA in a real world setting by showing that it allows a
wheeled Jackal robot to successfully imitate a human walking in an environment
using a video recorded using a mobile phone camera.
- Abstract(参考訳): 視覚ベースの自律移動ロボットナビゲーションのための模倣学習は最近、研究コミュニティで多くの注目を集めているが、既存のアプローチでは、デプロイプラットフォームを使って収集された状態動作のデモを必要とする。
しかし、これらのデモ信号を記録するためにプラットフォームを簡単に設定できない場合や、デモ参加者がプラットフォームにアクセスできない場合はどうでしょう?
このようなシナリオにおいて、視覚ベースの自律ナビゲーションのための模倣学習は可能か?
本稿では,この答えがイエスであり,近年の観察(ifo)文学の模倣から得られたアイデアは,ロボットが視点ミスマッチの存在下においても,デモンストレータが収集したエゴセントリックビデオのみを使用してナビゲートを学べるようにすることができると仮定する。
そこで本研究では,視覚観察のみの自律ナビゲーション学習(VOILA)という新しいアルゴリズムを導入し,物理的に異なるエージェントから収集した単一のビデオデモからナビゲーションポリシーを学習する。
我々は,フォトリアリスティックなAirSimシミュレータでVOILAを評価し,VOILAが専門家を模倣するだけでなく,新しい環境に一般化可能なナビゲーションポリシーも学習していることを示す。
さらに,実環境におけるvoilaの有効性を実証するために,携帯電話カメラを用いて記録した映像を用いて,車輪付きジャッキールロボットが人間の環境歩行を模倣できることを示す。
関連論文リスト
- Reflex-Based Open-Vocabulary Navigation without Prior Knowledge Using Omnidirectional Camera and Multiple Vision-Language Models [16.198686219364063]
地図構築や学習を一切必要としない最も単純な手法を考察し、事前知識のないロボットのオープン語彙ナビゲーションを実行する。
ロボットに全方向カメラと事前学習された視覚言語モデルを適用した。
論文 参考訳(メタデータ) (2024-08-21T07:18:58Z) - Vision-based Manipulation from Single Human Video with Open-World Object Graphs [58.23098483464538]
我々は、人間のビデオから視覚に基づく操作スキルを学ぶために、ロボットに力を与えるオブジェクト中心のアプローチを提案する。
ORIONは,単一のRGB-Dビデオからオブジェクト中心の操作計画を抽出することで,この問題に対処するアルゴリズムである。
論文 参考訳(メタデータ) (2024-05-30T17:56:54Z) - LM-Nav: Robotic Navigation with Large Pre-Trained Models of Language,
Vision, and Action [76.71101507291473]
本稿では,無注釈の大規模軌跡データに対するトレーニングの恩恵を享受するロボットナビゲーションシステムLM-Navを提案する。
本研究では,ナビゲーション(ViNG),画像言語アソシエーション(CLIP),言語モデリング(GPT-3)の事前学習モデルから構築可能なシステムについて述べる。
論文 参考訳(メタデータ) (2022-07-10T10:41:50Z) - NavDreams: Towards Camera-Only RL Navigation Among Humans [35.57943738219839]
我々は,アタリゲームにおけるモデリングと学習の方針を示す世界モデルの概念が,カメラによるナビゲーション問題にも適用できるかどうかを考察する。
我々は、ロボットが目標を達成するために衝突することなく、静的で動く人間を通り過ぎなければならないシミュレーション環境を作成する。
現状の手法はナビゲーション問題の解決に成功でき、将来の画像系列の夢のような予測を生成することができる。
論文 参考訳(メタデータ) (2022-03-23T09:46:44Z) - ViNG: Learning Open-World Navigation with Visual Goals [82.84193221280216]
視覚的目標達成のための学習に基づくナビゲーションシステムを提案する。
提案手法は,我々がvingと呼ぶシステムが,目標条件強化学習のための提案手法を上回っていることを示す。
我々は、ラストマイル配送や倉庫検査など、現実の多くのアプリケーションでViNGを実演する。
論文 参考訳(メタデータ) (2020-12-17T18:22:32Z) - LaND: Learning to Navigate from Disengagements [158.6392333480079]
本研究では,学習者に対する学習支援のための強化学習手法(LaND)を提案する。
LaNDは現在の知覚的観察から、どのアクションが解離につながるかを予測するニューラルネットワークモデルを学び、テスト時計画で解離を回避するアクションを実行する。
以上の結果から,LaNDは多種多様な現実世界の歩道環境を学習し,模倣学習と強化学習の両方に優れることを示した。
論文 参考訳(メタデータ) (2020-10-09T17:21:42Z) - Visual Navigation Among Humans with Optimal Control as a Supervisor [72.5188978268463]
そこで本研究では,学習に基づく知覚とモデルに基づく最適制御を組み合わせることで,人間間をナビゲートする手法を提案する。
私たちのアプローチは、新しいデータ生成ツールであるHumANavによって実現されています。
学習したナビゲーションポリシーは、将来の人間の動きを明示的に予測することなく、人間に予測し、反応できることを実証する。
論文 参考訳(メタデータ) (2020-03-20T16:13:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。