論文の概要: Rapid Exploration for Open-World Navigation with Latent Goal Models
- arxiv url: http://arxiv.org/abs/2104.05859v5
- Date: Wed, 11 Oct 2023 09:07:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-13 17:32:29.106499
- Title: Rapid Exploration for Open-World Navigation with Latent Goal Models
- Title(参考訳): 潜在目標モデルを用いたオープンワールドナビゲーションの迅速な探索
- Authors: Dhruv Shah, Benjamin Eysenbach, Gregory Kahn, Nicholas Rhinehart,
Sergey Levine
- Abstract要約: 多様なオープンワールド環境における自律的な探索とナビゲーションのためのロボット学習システムについて述べる。
本手法のコアとなるのは、画像の非パラメトリックトポロジカルメモリとともに、距離と行動の学習された潜在変数モデルである。
学習方針を規則化するために情報ボトルネックを使用し、(i)目標のコンパクトな視覚的表現、(ii)一般化能力の向上、(iii)探索のための実行可能な目標をサンプリングするためのメカニズムを提供する。
- 参考スコア(独自算出の注目度): 78.45339342966196
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We describe a robotic learning system for autonomous exploration and
navigation in diverse, open-world environments. At the core of our method is a
learned latent variable model of distances and actions, along with a
non-parametric topological memory of images. We use an information bottleneck
to regularize the learned policy, giving us (i) a compact visual representation
of goals, (ii) improved generalization capabilities, and (iii) a mechanism for
sampling feasible goals for exploration. Trained on a large offline dataset of
prior experience, the model acquires a representation of visual goals that is
robust to task-irrelevant distractors. We demonstrate our method on a mobile
ground robot in open-world exploration scenarios. Given an image of a goal that
is up to 80 meters away, our method leverages its representation to explore and
discover the goal in under 20 minutes, even amidst previously-unseen obstacles
and weather conditions. Please check out the project website for videos of our
experiments and information about the real-world dataset used at
https://sites.google.com/view/recon-robot.
- Abstract(参考訳): 多様なオープンワールド環境における自律的な探索とナビゲーションのためのロボット学習システムについて述べる。
本手法のコアとなるのは、画像の非パラメトリックトポロジカルメモリとともに、距離と行動の学習潜在変数モデルである。
情報ボトルネックを使って 学習した政策を定式化し
(i)目標のコンパクトな視覚的表現
(ii)一般化能力の向上、及び
(iii)探査の可能な目標をサンプリングするメカニズム。
事前経験の大規模なオフラインデータセットでトレーニングされたこのモデルは、タスクに依存しない邪魔者に堅牢な視覚目標の表現を取得する。
オープンワールド探索のシナリオにおいて,移動型地上ロボットの手法を実演する。
最大80m離れた目標の画像から、これまでの障害物や気象条件の中でさえも、目標を20分以内で探索・発見するために、その表現を活用している。
実験のビデオや、https://sites.google.com/view/recon-robot.comで使われている実世界のデータセットに関する情報は、プロジェクトのwebサイトをご覧ください。
関連論文リスト
- NoMaD: Goal Masked Diffusion Policies for Navigation and Exploration [57.15811390835294]
本稿では,目標指向ナビゲーションと目標非依存探索の両方を扱うために,単一の統合拡散政策をトレーニングする方法について述べる。
この統一された政策は、新しい環境における目標を視覚的に示す際に、全体的な性能が向上することを示す。
実世界の移動ロボットプラットフォーム上で実施した実験は,5つの代替手法と比較して,見えない環境における効果的なナビゲーションを示す。
論文 参考訳(メタデータ) (2023-10-11T21:07:14Z) - Autonomous Marker-less Rapid Aerial Grasping [5.892028494793913]
本稿では,自律的高速空中把握のための視覚ベースシステムを提案する。
検出対象の高密度点雲を生成し,幾何に基づく把握計画を行う。
飛行プラットフォームを用いた幾何学的把握技術の最初の利用例を示す。
論文 参考訳(メタデータ) (2022-11-23T16:25:49Z) - GNM: A General Navigation Model to Drive Any Robot [67.40225397212717]
視覚に基づくナビゲーションのための一般的な目標条件付きモデルは、多くの異なるが構造的に類似したロボットから得られたデータに基づいて訓練することができる。
ロボット間の効率的なデータ共有に必要な設計決定について分析する。
我々は、訓練されたGNMを、下四極子を含む様々な新しいロボットに展開する。
論文 参考訳(メタデータ) (2022-10-07T07:26:41Z) - Unsupervised Online Learning for Robotic Interestingness with Visual
Memory [9.189959184116962]
そこで本研究では,オンライン環境に自動的に適応して,興味深いシーンを素早く報告する手法を開発した。
地下トンネル環境における最先端の非監視手法よりも平均20%高い精度を実現する。
論文 参考訳(メタデータ) (2021-11-18T16:51:39Z) - Actionable Models: Unsupervised Offline Reinforcement Learning of
Robotic Skills [93.12417203541948]
与えられたデータセットの任意の目標状態に到達するために学習することによって、環境の機能的な理解を学ぶ目的を提案する。
提案手法は,高次元カメラ画像上で動作し,これまで見つからなかったシーンやオブジェクトに一般化した実ロボットの様々なスキルを学習することができる。
論文 参考訳(メタデータ) (2021-04-15T20:10:11Z) - Model-Based Visual Planning with Self-Supervised Functional Distances [104.83979811803466]
モデルに基づく視覚的目標達成のための自己監視手法を提案する。
私たちのアプローチは、オフラインでラベルなしのデータを使って完全に学習します。
このアプローチは,モデルフリーとモデルベース先行手法の両方で大幅に性能が向上することがわかった。
論文 参考訳(メタデータ) (2020-12-30T23:59:09Z) - ViNG: Learning Open-World Navigation with Visual Goals [82.84193221280216]
視覚的目標達成のための学習に基づくナビゲーションシステムを提案する。
提案手法は,我々がvingと呼ぶシステムが,目標条件強化学習のための提案手法を上回っていることを示す。
我々は、ラストマイル配送や倉庫検査など、現実の多くのアプリケーションでViNGを実演する。
論文 参考訳(メタデータ) (2020-12-17T18:22:32Z) - Robot Perception enables Complex Navigation Behavior via Self-Supervised
Learning [23.54696982881734]
本稿では、強化学習(RL)によるアクティブな目標駆動ナビゲーションタスクのためのロボット認識システムの統合手法を提案する。
提案手法は,1つの画像列から直接自己スーパービジョンを用いて得られる,コンパクトな動きと視覚知覚データを時間的に組み込む。
我々は,新しいインタラクティブなCityLearnフレームワークを用いて,実世界の運転データセットであるKITTIとOxford RobotCarのアプローチを実証した。
論文 参考訳(メタデータ) (2020-06-16T07:45:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。