論文の概要: RECON: Rapid Exploration for Open-World Navigation with Latent Goal
Models
- arxiv url: http://arxiv.org/abs/2104.05859v1
- Date: Mon, 12 Apr 2021 23:14:41 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-15 01:47:16.628458
- Title: RECON: Rapid Exploration for Open-World Navigation with Latent Goal
Models
- Title(参考訳): RECON: 潜在目標モデルによるオープンワールドナビゲーションの迅速探索
- Authors: Dhruv Shah, Benjamin Eysenbach, Gregory Kahn, Nicholas Rhinehart,
Sergey Levine
- Abstract要約: 多様な環境における自律ナビゲーションのためのロボット学習システムについて述べる。
我々の手法は、20分で最大80mの半径で、画像として指定された新しい目標に到達することを学べる。
また,本手法は既知の障害物や気象条件に対する頑健性を示す。
- 参考スコア(独自算出の注目度): 82.84193221280216
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We describe a robotic learning system for autonomous navigation in diverse
environments. At the core of our method are two components: (i) a
non-parametric map that reflects the connectivity of the environment but does
not require geometric reconstruction or localization, and (ii) a latent
variable model of distances and actions that enables efficiently constructing
and traversing this map. The model is trained on a large dataset of prior
experience to predict the expected amount of time and next action needed to
transit between the current image and a goal image. Training the model in this
way enables it to develop a representation of goals robust to distracting
information in the input images, which aids in deploying the system to quickly
explore new environments. We demonstrate our method on a mobile ground robot in
a range of outdoor navigation scenarios. Our method can learn to reach new
goals, specified as images, in a radius of up to 80 meters in just 20 minutes,
and reliably revisit these goals in changing environments. We also demonstrate
our method's robustness to previously-unseen obstacles and variable weather
conditions. We encourage the reader to visit the project website for videos of
our experiments and demonstrations https://sites.google.com/view/recon-robot
- Abstract(参考訳): 多様な環境における自律ナビゲーションのためのロボット学習システムについて述べる。
本手法の核となる2つの構成要素は, (i) 環境の接続を反映するが幾何学的再構成や局所化を必要としない非パラメトリック写像と, (ii) 効率的な構築と横断を可能にする距離と動作の潜在変数モデルである。
モデルは、事前の経験の大規模なデータセットに基づいてトレーニングされ、現在の画像とゴール画像の間を移動するために必要な期待される時間と次のアクションを予測する。
この方法でモデルをトレーニングすることで、入力画像の情報を邪魔することなく、目標の表現を堅牢にし、新しい環境を素早く探索するシステムをデプロイするのに役立つ。
本手法を移動式地上ロボットに適用し,様々な屋外ナビゲーションシナリオで実演する。
提案手法は20分で最大80mの半径で画像として特定された新たな目標に到達することを学び、変化する環境において確実に目標を再検討できる。
また,本手法は既知の障害物や気象条件に対する頑健性を示す。
私たちは、実験とデモのビデオのためにプロジェクトのWebサイトを訪れることを推奨します。
関連論文リスト
- NoMaD: Goal Masked Diffusion Policies for Navigation and Exploration [57.15811390835294]
本稿では,目標指向ナビゲーションと目標非依存探索の両方を扱うために,単一の統合拡散政策をトレーニングする方法について述べる。
この統一された政策は、新しい環境における目標を視覚的に示す際に、全体的な性能が向上することを示す。
実世界の移動ロボットプラットフォーム上で実施した実験は,5つの代替手法と比較して,見えない環境における効果的なナビゲーションを示す。
論文 参考訳(メタデータ) (2023-10-11T21:07:14Z) - Autonomous Marker-less Rapid Aerial Grasping [5.892028494793913]
本稿では,自律的高速空中把握のための視覚ベースシステムを提案する。
検出対象の高密度点雲を生成し,幾何に基づく把握計画を行う。
飛行プラットフォームを用いた幾何学的把握技術の最初の利用例を示す。
論文 参考訳(メタデータ) (2022-11-23T16:25:49Z) - GNM: A General Navigation Model to Drive Any Robot [67.40225397212717]
視覚に基づくナビゲーションのための一般的な目標条件付きモデルは、多くの異なるが構造的に類似したロボットから得られたデータに基づいて訓練することができる。
ロボット間の効率的なデータ共有に必要な設計決定について分析する。
我々は、訓練されたGNMを、下四極子を含む様々な新しいロボットに展開する。
論文 参考訳(メタデータ) (2022-10-07T07:26:41Z) - Unsupervised Online Learning for Robotic Interestingness with Visual
Memory [9.189959184116962]
そこで本研究では,オンライン環境に自動的に適応して,興味深いシーンを素早く報告する手法を開発した。
地下トンネル環境における最先端の非監視手法よりも平均20%高い精度を実現する。
論文 参考訳(メタデータ) (2021-11-18T16:51:39Z) - Actionable Models: Unsupervised Offline Reinforcement Learning of
Robotic Skills [93.12417203541948]
与えられたデータセットの任意の目標状態に到達するために学習することによって、環境の機能的な理解を学ぶ目的を提案する。
提案手法は,高次元カメラ画像上で動作し,これまで見つからなかったシーンやオブジェクトに一般化した実ロボットの様々なスキルを学習することができる。
論文 参考訳(メタデータ) (2021-04-15T20:10:11Z) - Model-Based Visual Planning with Self-Supervised Functional Distances [104.83979811803466]
モデルに基づく視覚的目標達成のための自己監視手法を提案する。
私たちのアプローチは、オフラインでラベルなしのデータを使って完全に学習します。
このアプローチは,モデルフリーとモデルベース先行手法の両方で大幅に性能が向上することがわかった。
論文 参考訳(メタデータ) (2020-12-30T23:59:09Z) - ViNG: Learning Open-World Navigation with Visual Goals [82.84193221280216]
視覚的目標達成のための学習に基づくナビゲーションシステムを提案する。
提案手法は,我々がvingと呼ぶシステムが,目標条件強化学習のための提案手法を上回っていることを示す。
我々は、ラストマイル配送や倉庫検査など、現実の多くのアプリケーションでViNGを実演する。
論文 参考訳(メタデータ) (2020-12-17T18:22:32Z) - Robot Perception enables Complex Navigation Behavior via Self-Supervised
Learning [23.54696982881734]
本稿では、強化学習(RL)によるアクティブな目標駆動ナビゲーションタスクのためのロボット認識システムの統合手法を提案する。
提案手法は,1つの画像列から直接自己スーパービジョンを用いて得られる,コンパクトな動きと視覚知覚データを時間的に組み込む。
我々は,新しいインタラクティブなCityLearnフレームワークを用いて,実世界の運転データセットであるKITTIとOxford RobotCarのアプローチを実証した。
論文 参考訳(メタデータ) (2020-06-16T07:45:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。