論文の概要: One-4-All: Neural Potential Fields for Embodied Navigation
- arxiv url: http://arxiv.org/abs/2303.04011v2
- Date: Tue, 11 Apr 2023 17:48:25 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-13 17:50:40.080913
- Title: One-4-All: Neural Potential Fields for Embodied Navigation
- Title(参考訳): one-4-all:具体的ナビゲーションのための神経電位場
- Authors: Sacha Morin, Miguel Saavedra-Ruiz, Liam Paull
- Abstract要約: 実世界のナビゲーションには高次元RGB画像を用いた長期計画が必要である。
One-4-All (O4A) は、グラフのないエンドツーエンドのナビゲーションパイプラインを得るために、自己教師付きおよび多様体学習を活用する方法である。
O4Aは,8つの模擬ギブソン屋内環境において長距離目標を達成することができることを示す。
- 参考スコア(独自算出の注目度): 10.452316044889177
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A fundamental task in robotics is to navigate between two locations. In
particular, real-world navigation can require long-horizon planning using
high-dimensional RGB images, which poses a substantial challenge for end-to-end
learning-based approaches. Current semi-parametric methods instead achieve
long-horizon navigation by combining learned modules with a topological memory
of the environment, often represented as a graph over previously collected
images. However, using these graphs in practice typically involves tuning a
number of pruning heuristics to avoid spurious edges, limit runtime memory
usage and allow reasonably fast graph queries. In this work, we present
One-4-All (O4A), a method leveraging self-supervised and manifold learning to
obtain a graph-free, end-to-end navigation pipeline in which the goal is
specified as an image. Navigation is achieved by greedily minimizing a
potential function defined continuously over the O4A latent space. Our system
is trained offline on non-expert exploration sequences of RGB data and
controls, and does not require any depth or pose measurements. We show that O4A
can reach long-range goals in 8 simulated Gibson indoor environments, and
further demonstrate successful real-world navigation using a Jackal UGV
platform.
- Abstract(参考訳): ロボット工学の基本課題は、2つの場所をナビゲートすることだ。
特に、現実世界のナビゲーションには高次元RGB画像による長期計画が必要であり、エンドツーエンドの学習ベースアプローチでは大きな課題となる。
現在のセミパラメトリック法は、学習したモジュールと環境のトポロジカルメモリを組み合わせ、しばしば以前に収集した画像のグラフとして表されることによって、長い水平ナビゲーションを実現する。
しかし、実際にはこれらのグラフを使用すると、スプリアスエッジを避けるために多くのプラニングヒューリスティックをチューニングし、ランタイムメモリ使用を制限し、合理的に高速なグラフクエリを可能にする。
本研究では,自己教師型および多様体学習を利用した1-4-All(O4A)を用いて,目標を画像として指定したグラフフリーでエンドツーエンドなナビゲーションパイプラインを得る。
ナビゲーションは、O4A潜在空間上で連続的に定義されるポテンシャル関数を強引に最小化する。
rgbデータと制御の非熟練な探索シーケンスでオフラインで訓練され、深さや姿勢の測定は不要である。
我々は,8つの模擬ギブソン屋内環境において,O4Aが長距離目標に達することを示し,さらにジャカルUGVプラットフォームを用いた実世界のナビゲーションを成功させることを示す。
関連論文リスト
- Feudal Networks for Visual Navigation [6.1190419149081245]
封建的学習を用いた視覚ナビゲーションの新しいアプローチを提案する。
各レベルのエージェントはタスクの異なる側面を見て、異なる空間的および時間的スケールで操作する。
得られた封建的なナビゲーションネットワークは、SOTAの性能に近い。
論文 参考訳(メタデータ) (2024-02-19T20:05:41Z) - Object Goal Navigation with Recursive Implicit Maps [92.6347010295396]
対象目標ナビゲーションのための暗黙的な空間マップを提案する。
提案手法は, 挑戦的なMP3Dデータセット上での技量を著しく上回る。
我々は、実際のロボットにモデルをデプロイし、実際のシーンでオブジェクトゴールナビゲーションの結果を奨励する。
論文 参考訳(メタデータ) (2023-08-10T14:21:33Z) - How To Not Train Your Dragon: Training-free Embodied Object Goal
Navigation with Semantic Frontiers [94.46825166907831]
Embodied AIにおけるオブジェクトゴールナビゲーション問題に対処するためのトレーニング不要のソリューションを提案する。
本手法は,古典的な視覚的同時ローカライゼーションとマッピング(V-SLAM)フレームワークに基づく,構造化されたシーン表現を構築する。
本手法は,言語先行情報とシーン統計に基づいてシーングラフのセマンティクスを伝搬し,幾何学的フロンティアに意味知識を導入する。
論文 参考訳(メタデータ) (2023-05-26T13:38:33Z) - Learning to Predict Navigational Patterns from Partial Observations [63.04492958425066]
本稿では,実環境におけるナビゲーションのパターンを,部分的な観察のみから推測する,初めての自己教師型学習(SSL)手法を提案する。
我々は、DSLPフィールドに最大極大グラフを適合させることにより、グローバルなナビゲーションパターンを推論する方法を実証する。
実験により,我々のSSLモデルはnuScenesデータセット上で2つのSOTA教師付きレーングラフ予測モデルより優れていることが示された。
論文 参考訳(メタデータ) (2023-04-26T02:08:46Z) - ReVoLT: Relational Reasoning and Voronoi Local Graph Planning for
Target-driven Navigation [1.0896567381206714]
Embodied AIは、知的な実体と現実世界の相互作用を強調する必然的なトレンドである。
グラフニューラルネットワーク(GNN)によるレイアウト関係の活用に関する研究
このタスクを分離し、階層的なフレームワークであるReVoLTを提案する。
論文 参考訳(メタデータ) (2023-01-06T05:19:56Z) - ViKiNG: Vision-Based Kilometer-Scale Navigation with Geographic Hints [94.60414567852536]
長距離航法には、計画と局所的な移動可能性の推論の両方が必要である。
学習と計画を統合する学習に基づくアプローチを提案する。
ViKiNGは、画像ベースの学習コントローラを利用できる。
論文 参考訳(メタデータ) (2022-02-23T02:14:23Z) - Lifelong Topological Visual Navigation [16.41858724205884]
本稿では,生涯ナビゲーション性能を時間とともに向上させるグラフ更新戦略を用いた学習型ビジュアルナビゲーション手法を提案する。
画像に基づくトポロジグラフを構築するためのサンプリングベースの計画アルゴリズムから着想を得た結果,スペーサーグラフはベースライン法に比べてナビゲーション性能が高い。
固定的なトレーニング環境から学習するコントローラとは異なり、ロボットが配置される実環境から比較的小さなデータセットを使ってモデルを微調整できることが示される。
論文 参考訳(メタデータ) (2021-10-16T06:16:14Z) - Memory-Augmented Reinforcement Learning for Image-Goal Navigation [67.3963444878746]
本論文では,クロスエピソードメモリを活用したナビゲーション学習法を提案する。
オーバーフィッティングを避けるため、トレーニング中にRGB入力にデータ拡張を適用することを提案する。
この競合性能はRGB入力のみから得られるが,位置や深度などのセンサは利用できない。
論文 参考訳(メタデータ) (2021-01-13T16:30:20Z) - Learning Synthetic to Real Transfer for Localization and Navigational
Tasks [7.019683407682642]
ナビゲーションは、コンピュータビジョン、ロボット工学、制御の概念を組み合わせて、複数の分野のクロスロードにある。
この研究は、実世界への移動をできる限り少ない努力で行うことができるナビゲーションパイプラインをシミュレーションで作成することを目的としていた。
ナビゲーションパイプラインを設計するには、環境、ローカライゼーション、ナビゲーション、計画の4つの大きな課題が発生する。
論文 参考訳(メタデータ) (2020-11-20T08:37:03Z) - Occupancy Anticipation for Efficient Exploration and Navigation [97.17517060585875]
そこで我々は,エージェントが自我中心のRGB-D観測を用いて,その占有状態を可視領域を超えて推定する,占有予測を提案する。
エゴセントリックなビューとトップダウンマップの両方でコンテキストを活用することで、私たちのモデルは環境のより広いマップを予測できます。
われわれのアプローチは、2020 Habitat PointNav Challengeの優勝だ。
論文 参考訳(メタデータ) (2020-08-21T03:16:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。