論文の概要: ViKiNG: Vision-Based Kilometer-Scale Navigation with Geographic Hints
- arxiv url: http://arxiv.org/abs/2202.11271v1
- Date: Wed, 23 Feb 2022 02:14:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-25 04:08:34.242376
- Title: ViKiNG: Vision-Based Kilometer-Scale Navigation with Geographic Hints
- Title(参考訳): ViKiNG: ジオグラフィックヒントを用いた視力に基づくカイロメータースケールナビゲーション
- Authors: Dhruv Shah, Sergey Levine
- Abstract要約: 長距離航法には、計画と局所的な移動可能性の推論の両方が必要である。
学習と計画を統合する学習に基づくアプローチを提案する。
ViKiNGは、画像ベースの学習コントローラを利用できる。
- 参考スコア(独自算出の注目度): 94.60414567852536
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Robotic navigation has been approached as a problem of 3D reconstruction and
planning, as well as an end-to-end learning problem. However, long-range
navigation requires both planning and reasoning about local traversability, as
well as being able to utilize information about global geography, in the form
of a roadmap, GPS, or other side information, which provides important
navigational hints but may be low-fidelity or unreliable. In this work, we
propose a learning-based approach that integrates learning and planning, and
can utilize side information such as schematic roadmaps, satellite maps and GPS
coordinates as a planning heuristic, without relying on them being accurate.
Our method, ViKiNG, incorporates a local traversability model, which looks at
the robot's current camera observation and a potential subgoal to infer how
easily that subgoal can be reached, as well as a heuristic model, which looks
at overhead maps and attempts to estimate the distance to the destination for
various subgoals. These models are used by a heuristic planner to decide the
best next subgoal in order to reach the final destination. Our method performs
no explicit geometric reconstruction, utilizing only a topological
representation of the environment. Despite having never seen trajectories
longer than 80 meters in its training dataset, ViKiNG can leverage its
image-based learned controller and goal-directed heuristic to navigate to goals
up to 3 kilometers away in previously unseen environments, and exhibit complex
behaviors such as probing potential paths and doubling back when they are found
to be non-viable. ViKiNG is also robust to unreliable maps and GPS, since the
low-level controller ultimately makes decisions based on egocentric image
observations, using maps only as planning heuristics. For videos of our
experiments, please check out https://sites.google.com/view/viking-release.
- Abstract(参考訳): ロボットナビゲーションは3次元再構築と計画の問題やエンドツーエンドの学習問題としてアプローチされてきた。
しかし、長距離航法には、地図やGPSといった重要なナビゲーションヒントを提供するが、信頼性が低い、あるいは信頼性の低い、グローバルジオグラフィックに関する情報を活用できるだけでなく、局所航法可能性に関する計画と推論の両方が必要である。
本研究では,学習と計画を統合した学習型アプローチを提案し,計画ヒューリスティックな計画図や衛星地図,GPS座標などの側面情報を,正確性に頼らずに活用することができる。
提案手法は,ロボットの現在のカメラ観測と,そのサブゴールにどの程度容易に到達できるかを推定するための潜在的なサブゴールを推定するローカル・トラバーサビリティ・モデルと,オーバヘッドマップに注目し,様々なサブゴールの目的地までの距離を推定するヒューリスティック・モデルとを組み込んでいる。
これらのモデルはヒューリスティックなプランナーによって、最終目的地に到達するために最適な次のサブゴールを決定するために使用されます。
本手法は, 環境のトポロジカル表現のみを利用して, 明示的な幾何学的再構成を行なわない。
ViKiNGは、トレーニングデータセットで80メートル以上の軌跡を見たことがないが、画像ベースの学習コントローラと目標指向のヒューリスティックを活用して、これまで見えない環境で最大3km離れた場所に移動し、潜在的な経路を探索したり、実行不可能であると判明した場合に2倍の複雑な振る舞いを示す。
バイキングは信頼性の低い地図やgpsにも頑健であり、低レベルのコントローラは最終的にエゴセントリックな画像観察に基づいて決定を下す。
実験のビデオはhttps://sites.google.com/view/viking-releaseをご覧ください。
関連論文リスト
- Pixel to Elevation: Learning to Predict Elevation Maps at Long Range using Images for Autonomous Offroad Navigation [10.898724668444125]
本稿では,車載エゴセントリック画像のみをリアルタイムに利用して,長距離の地形標高マップを予測できる学習型アプローチを提案する。
複雑で非構造的な地形における自律型オフロードロボットナビゲーションへの提案手法の適用性を実験的に検証した。
論文 参考訳(メタデータ) (2024-01-30T22:37:24Z) - Object Goal Navigation with Recursive Implicit Maps [92.6347010295396]
対象目標ナビゲーションのための暗黙的な空間マップを提案する。
提案手法は, 挑戦的なMP3Dデータセット上での技量を著しく上回る。
我々は、実際のロボットにモデルをデプロイし、実際のシーンでオブジェクトゴールナビゲーションの結果を奨励する。
論文 参考訳(メタデータ) (2023-08-10T14:21:33Z) - Predicting Topological Maps for Visual Navigation in Unexplored
Environments [28.30219170556201]
本研究では,未探索環境における自律探査とナビゲーションのためのロボット学習システムを提案する。
本手法のコアとなるのは,目標に基づく視覚ナビゲーションを支援するために,確率的レイアウトグラフを構築し,予測し,使用するプロセスである。
我々はMatterport3Dで我々のフレームワークをテストし、目に見えない環境でより成功し、効率的なナビゲーションを示す。
論文 参考訳(メタデータ) (2022-11-23T00:53:11Z) - Learning Forward Dynamics Model and Informed Trajectory Sampler for Safe
Quadruped Navigation [1.2783783498844021]
典型的なSOTAシステムは、マッパー、グローバルプランナー、ローカルプランナー、コマンドトラッキングコントローラの4つの主要モジュールで構成されている。
我々は,グローバルプランナから粗い計画経路を追跡するためのベロシティプランを生成するために,ロバストで安全なローカルプランナを構築している。
この枠組みを用いることで、四足歩行ロボットは衝突なしに様々な複雑な環境を自律的に移動でき、ベースライン法と比較してスムーズなコマンドプランを生成することができる。
論文 参考訳(メタデータ) (2022-04-19T04:01:44Z) - Lifelong Topological Visual Navigation [16.41858724205884]
本稿では,生涯ナビゲーション性能を時間とともに向上させるグラフ更新戦略を用いた学習型ビジュアルナビゲーション手法を提案する。
画像に基づくトポロジグラフを構築するためのサンプリングベースの計画アルゴリズムから着想を得た結果,スペーサーグラフはベースライン法に比べてナビゲーション性能が高い。
固定的なトレーニング環境から学習するコントローラとは異なり、ロボットが配置される実環境から比較的小さなデータセットを使ってモデルを微調整できることが示される。
論文 参考訳(メタデータ) (2021-10-16T06:16:14Z) - Rapid Exploration for Open-World Navigation with Latent Goal Models [78.45339342966196]
多様なオープンワールド環境における自律的な探索とナビゲーションのためのロボット学習システムについて述べる。
本手法のコアとなるのは、画像の非パラメトリックトポロジカルメモリとともに、距離と行動の学習された潜在変数モデルである。
学習方針を規則化するために情報ボトルネックを使用し、(i)目標のコンパクトな視覚的表現、(ii)一般化能力の向上、(iii)探索のための実行可能な目標をサンプリングするためのメカニズムを提供する。
論文 参考訳(メタデータ) (2021-04-12T23:14:41Z) - SOON: Scenario Oriented Object Navigation with Graph-based Exploration [102.74649829684617]
人間のように3Dエンボディ環境のどこからでも言語ガイドされたターゲットに向かって移動する能力は、インテリジェントロボットの「聖杯」目標の1つです。
ほとんどのビジュアルナビゲーションベンチマークは、ステップバイステップの詳細な命令セットに導かれ、固定された出発点から目標に向かって移動することに焦点を当てている。
このアプローチは、人間だけが物体とその周囲がどのように見えるかを説明する現実世界の問題から逸脱し、ロボットにどこからでも航行を依頼する。
論文 参考訳(メタデータ) (2021-03-31T15:01:04Z) - ViNG: Learning Open-World Navigation with Visual Goals [82.84193221280216]
視覚的目標達成のための学習に基づくナビゲーションシステムを提案する。
提案手法は,我々がvingと呼ぶシステムが,目標条件強化学習のための提案手法を上回っていることを示す。
我々は、ラストマイル配送や倉庫検査など、現実の多くのアプリケーションでViNGを実演する。
論文 参考訳(メタデータ) (2020-12-17T18:22:32Z) - BADGR: An Autonomous Self-Supervised Learning-Based Navigation System [158.6392333480079]
BadGRは、エンドツーエンドの学習ベースのモバイルロボットナビゲーションシステムである。
実際の環境で収集された、自己監督型のオフポリシーデータでトレーニングすることができる。
BadGRは、幾何学的に邪魔な障害物を伴って、現実世界の都市やオフロード環境をナビゲートすることができる。
論文 参考訳(メタデータ) (2020-02-13T18:40:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。