論文の概要: ViNG: Learning Open-World Navigation with Visual Goals
- arxiv url: http://arxiv.org/abs/2012.09812v2
- Date: Fri, 26 Mar 2021 11:12:28 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-02 12:59:58.605534
- Title: ViNG: Learning Open-World Navigation with Visual Goals
- Title(参考訳): ViNG: Visual Goalsでオープンワールドナビゲーションを学ぶ
- Authors: Dhruv Shah, Benjamin Eysenbach, Gregory Kahn, Nicholas Rhinehart,
Sergey Levine
- Abstract要約: 視覚的目標達成のための学習に基づくナビゲーションシステムを提案する。
提案手法は,我々がvingと呼ぶシステムが,目標条件強化学習のための提案手法を上回っていることを示す。
我々は、ラストマイル配送や倉庫検査など、現実の多くのアプリケーションでViNGを実演する。
- 参考スコア(独自算出の注目度): 82.84193221280216
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a learning-based navigation system for reaching visually indicated
goals and demonstrate this system on a real mobile robot platform. Learning
provides an appealing alternative to conventional methods for robotic
navigation: instead of reasoning about environments in terms of geometry and
maps, learning can enable a robot to learn about navigational affordances,
understand what types of obstacles are traversable (e.g., tall grass) or not
(e.g., walls), and generalize over patterns in the environment. However, unlike
conventional planning algorithms, it is harder to change the goal for a learned
policy during deployment. We propose a method for learning to navigate towards
a goal image of the desired destination. By combining a learned policy with a
topological graph constructed out of previously observed data, our system can
determine how to reach this visually indicated goal even in the presence of
variable appearance and lighting. Three key insights, waypoint proposal, graph
pruning and negative mining, enable our method to learn to navigate in
real-world environments using only offline data, a setting where prior methods
struggle. We instantiate our method on a real outdoor ground robot and show
that our system, which we call ViNG, outperforms previously-proposed methods
for goal-conditioned reinforcement learning, including other methods that
incorporate reinforcement learning and search. We also study how \sysName
generalizes to unseen environments and evaluate its ability to adapt to such an
environment with growing experience. Finally, we demonstrate ViNG on a number
of real-world applications, such as last-mile delivery and warehouse
inspection. We encourage the reader to visit the project website for videos of
our experiments and demonstrations sites.google.com/view/ving-robot.
- Abstract(参考訳): 本研究では,視覚的に指示された目標を達成するための学習に基づくナビゲーションシステムを提案し,実際の移動ロボットプラットフォーム上で実演する。
学習は、幾何学や地図の観点で環境を推論する代わりに、ロボットがナビゲーションの余裕について学習し、どのような種類の障害物(背の高い草など)が横断可能であるかを理解し、(壁など)そうでないかを理解し、環境のパターンを一般化することができる。
しかしながら、従来の計画アルゴリズムとは異なり、デプロイメント中に学習したポリシーの目標を変更するのは難しい。
本稿では,所望の目的地のゴール画像に向けての学習方法を提案する。
これまでに観測されたデータから構築されたトポロジカルグラフと学習ポリシを組み合わせることで、変動した外観や照明の存在下でも、この視覚的に示される目標に到達する方法を決定することができる。
3つの重要な洞察、ウェイポイント提案、グラフプルーニング、負のマイニングにより、我々の方法はオフラインデータのみを使用して現実世界の環境をナビゲートすることができる。
実際の屋外グラウンドロボット上で本手法をインスタンス化し,ViNGと呼ばれる我々のシステムは,強化学習と探索を組み込んだ他の方法を含む,目標条件付き強化学習の手法よりも優れていることを示す。
また,認識不能な環境への一般化について検討し,経験を積んだ環境への適応能力を評価する。
最後に,ラストマイル配送や倉庫の検査など,実世界のアプリケーションをいくつか紹介する。
Google.com/view/ving-robot.comのビデオやデモのサイトを見るために、読者はプロジェクトのWebサイトを訪問することを勧めます。
関連論文リスト
- NoMaD: Goal Masked Diffusion Policies for Navigation and Exploration [57.15811390835294]
本稿では,目標指向ナビゲーションと目標非依存探索の両方を扱うために,単一の統合拡散政策をトレーニングする方法について述べる。
この統一された政策は、新しい環境における目標を視覚的に示す際に、全体的な性能が向上することを示す。
実世界の移動ロボットプラットフォーム上で実施した実験は,5つの代替手法と比較して,見えない環境における効果的なナビゲーションを示す。
論文 参考訳(メタデータ) (2023-10-11T21:07:14Z) - Navigating to Objects in the Real World [76.1517654037993]
本稿では,古典的,モジュール的,エンド・ツー・エンドの学習手法と比較した,意味的視覚ナビゲーション手法に関する大規模な実証的研究について述べる。
モジュラー学習は実世界ではうまく機能し、90%の成功率に達しています。
対照的に、エンド・ツー・エンドの学習は、シミュレーションと現実の間の画像領域の差が大きいため、77%のシミュレーションから23%の実際の成功率へと低下する。
論文 参考訳(メタデータ) (2022-12-02T01:10:47Z) - Lifelong Topological Visual Navigation [16.41858724205884]
本稿では,生涯ナビゲーション性能を時間とともに向上させるグラフ更新戦略を用いた学習型ビジュアルナビゲーション手法を提案する。
画像に基づくトポロジグラフを構築するためのサンプリングベースの計画アルゴリズムから着想を得た結果,スペーサーグラフはベースライン法に比べてナビゲーション性能が高い。
固定的なトレーニング環境から学習するコントローラとは異なり、ロボットが配置される実環境から比較的小さなデータセットを使ってモデルを微調整できることが示される。
論文 参考訳(メタデータ) (2021-10-16T06:16:14Z) - Actionable Models: Unsupervised Offline Reinforcement Learning of
Robotic Skills [93.12417203541948]
与えられたデータセットの任意の目標状態に到達するために学習することによって、環境の機能的な理解を学ぶ目的を提案する。
提案手法は,高次元カメラ画像上で動作し,これまで見つからなかったシーンやオブジェクトに一般化した実ロボットの様々なスキルを学習することができる。
論文 参考訳(メタデータ) (2021-04-15T20:10:11Z) - Rapid Exploration for Open-World Navigation with Latent Goal Models [78.45339342966196]
多様なオープンワールド環境における自律的な探索とナビゲーションのためのロボット学習システムについて述べる。
本手法のコアとなるのは、画像の非パラメトリックトポロジカルメモリとともに、距離と行動の学習された潜在変数モデルである。
学習方針を規則化するために情報ボトルネックを使用し、(i)目標のコンパクトな視覚的表現、(ii)一般化能力の向上、(iii)探索のための実行可能な目標をサンプリングするためのメカニズムを提供する。
論文 参考訳(メタデータ) (2021-04-12T23:14:41Z) - NavRep: Unsupervised Representations for Reinforcement Learning of Robot
Navigation in Dynamic Human Environments [28.530962677406627]
2つのエンドツーエンドと18の教師なし学習ベースのアーキテクチャをトレーニングし、それらと既存のアプローチを未認識のテストケースで比較します。
その結果,教師なし学習手法はエンドツーエンドの手法と競合することがわかった。
このリリースには、他の論文で記述されたトレーニング条件をエミュレートするように設計されたopenai-gym互換環境も含まれている。
論文 参考訳(メタデータ) (2020-12-08T12:51:14Z) - BADGR: An Autonomous Self-Supervised Learning-Based Navigation System [158.6392333480079]
BadGRは、エンドツーエンドの学習ベースのモバイルロボットナビゲーションシステムである。
実際の環境で収集された、自己監督型のオフポリシーデータでトレーニングすることができる。
BadGRは、幾何学的に邪魔な障害物を伴って、現実世界の都市やオフロード環境をナビゲートすることができる。
論文 参考訳(メタデータ) (2020-02-13T18:40:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。