論文の概要: PlaceNav: Topological Navigation through Place Recognition
- arxiv url: http://arxiv.org/abs/2309.17260v3
- Date: Thu, 5 Oct 2023 10:13:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-06 11:12:50.575569
- Title: PlaceNav: Topological Navigation through Place Recognition
- Title(参考訳): PlaceNav: 位置認識によるトポロジカルナビゲーション
- Authors: Lauri Suomela, Jussi Kalliola, Harry Edelman, Joni-Kristian
K\"am\"ar\"ainen
- Abstract要約: そこで我々はPlaceNavを紹介し、ロボットに依存しない部分をナビゲーション固有の汎用コンピュータビジョンコンポーネントに分割する。
トポロジカルナビゲーションパイプラインのサブゴール選択に視覚的位置認識を利用する。
実験の結果, 室内では76%, 屋外ナビゲーションでは23%, 計算効率が向上した。
- 参考スコア(独自算出の注目度): 1.9382079036818822
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent results suggest that splitting topological navigation into
robot-independent and robot-specific components improves navigation performance
by enabling the robot-independent part to be trained with data collected by
different robot types. However, the navigation methods are still limited by the
scarcity of suitable training data and suffer from poor computational scaling.
In this work, we present PlaceNav, subdividing the robot-independent part into
navigation-specific and generic computer vision components. We utilize visual
place recognition for the subgoal selection of the topological navigation
pipeline. This makes subgoal selection more efficient and enables leveraging
large-scale datasets from non-robotics sources, increasing training data
availability. Bayesian filtering, enabled by place recognition, further
improves navigation performance by increasing the temporal consistency of
subgoals. Our experimental results verify the design and the new model obtains
a 76% higher success rate in indoor and 23% higher in outdoor navigation tasks
with higher computational efficiency.
- Abstract(参考訳): 近年,ロボット非依存およびロボット固有成分にトポロジカルナビゲーションを分割することで,ロボット非依存部分を異なるロボットタイプから収集したデータで訓練することにより,ナビゲーション性能が向上することが示唆された。
しかしながら、適切なトレーニングデータの不足により、ナビゲーション手法は依然として制限され、計算スケールの悪さに苦しめられている。
本研究では,ロボットに依存しない部分をナビゲーション固有かつ汎用的なコンピュータビジョンコンポーネントに分割して,placenavを提案する。
トポロジカルナビゲーションパイプラインのサブゴール選択に視覚的位置認識を利用する。
これにより、サブゴア選択の効率が向上し、非ロボットソースからの大規模データセットの活用が可能になり、トレーニングデータの可用性が向上する。
位置認識によって実現されるベイズフィルタは、サブゴールの時間的一貫性を高め、ナビゲーション性能をさらに向上させる。
実験の結果, 室内での成功率は76%, 屋外ナビゲーションで23%, 計算効率が高かった。
関連論文リスト
- Hierarchical end-to-end autonomous navigation through few-shot waypoint detection [0.0]
人間のナビゲーションはランドマークと行動の関連によって促進される。
現在の自律ナビゲーション方式は、正確な位置決め装置とアルゴリズム、および環境から収集されたセンサーデータの広範なストリームに依存している。
本研究では,移動ロボットがこれまで知られていなかった環境をナビゲートできる階層型メタ学習手法を提案する。
論文 参考訳(メタデータ) (2024-09-23T00:03:39Z) - Two-Stage Depth Enhanced Learning with Obstacle Map For Object Navigation [11.667940255053582]
本稿では,RGBとトレーニングシーンの深度情報を用いて特徴抽出器の事前訓練を行い,ナビゲーション効率を向上する。
提案手法をAI2-ThorとRobothorで評価し,成功率と航法効率において最先端(SOTA)法を著しく上回っていることを示した。
論文 参考訳(メタデータ) (2024-06-20T08:35:10Z) - Learning Navigational Visual Representations with Semantic Map
Supervision [85.91625020847358]
エージェントの自我中心のビューとセマンティックマップを対比してナビゲーション固有の視覚表現学習法を提案する。
Ego$2$-Map学習は、オブジェクト、構造、遷移などのコンパクトでリッチな情報を、ナビゲーションのためのエージェントのエゴセントリックな表現に転送する。
論文 参考訳(メタデータ) (2023-07-23T14:01:05Z) - Real-time Vision-based Navigation for a Robot in an Indoor Environment [0.0]
このシステムは、視覚に基づく技術と高度な経路計画アルゴリズムを利用して、障害物を避けながらロボットが目的地に向かって移動できるようにする。
この知見は、屋内ロボットナビゲーションの進歩に寄与し、リアルタイムで自律的なナビゲーションのための視覚ベースの技術の可能性を示している。
論文 参考訳(メタデータ) (2023-07-02T21:01:56Z) - Enhancing Navigation Benchmarking and Perception Data Generation for
Row-based Crops in Simulation [0.3518016233072556]
本稿では,セマンティックセグメンテーションネットワークを学習するための合成データセットと,ナビゲーションアルゴリズムを高速に評価するための仮想シナリオのコレクションを提案する。
異なるフィールドジオメトリと特徴を探索するための自動パラメトリック手法が開発されている。
シミュレーションフレームワークとデータセットは、異なる作物のディープセグメンテーションネットワークをトレーニングし、その結果のナビゲーションをベンチマークすることで評価されている。
論文 参考訳(メタデータ) (2023-06-27T14:46:09Z) - Offline Reinforcement Learning for Visual Navigation [66.88830049694457]
ReViNDは、ロボットナビゲーションのための最初のオフラインRLシステムで、これまで収集されたデータを利用して、現実世界でユーザーが指定した報酬関数を最適化する。
ReViNDは、このデータセットからのオフライントレーニングのみを使用して、遠方の目標にナビゲートできることを示し、ユーザ指定の報酬関数に基づいて、質的に異なる振る舞いを示す。
論文 参考訳(メタデータ) (2022-12-16T02:23:50Z) - GNM: A General Navigation Model to Drive Any Robot [67.40225397212717]
視覚に基づくナビゲーションのための一般的な目標条件付きモデルは、多くの異なるが構造的に類似したロボットから得られたデータに基づいて訓練することができる。
ロボット間の効率的なデータ共有に必要な設計決定について分析する。
我々は、訓練されたGNMを、下四極子を含む様々な新しいロボットに展開する。
論文 参考訳(メタデータ) (2022-10-07T07:26:41Z) - Occupancy Anticipation for Efficient Exploration and Navigation [97.17517060585875]
そこで我々は,エージェントが自我中心のRGB-D観測を用いて,その占有状態を可視領域を超えて推定する,占有予測を提案する。
エゴセントリックなビューとトップダウンマップの両方でコンテキストを活用することで、私たちのモデルは環境のより広いマップを予測できます。
われわれのアプローチは、2020 Habitat PointNav Challengeの優勝だ。
論文 参考訳(メタデータ) (2020-08-21T03:16:51Z) - APPLD: Adaptive Planner Parameter Learning from Demonstration [48.63930323392909]
本稿では,既存のナビゲーションシステムを新しい複雑な環境に適用可能な,適応プランナー学習(Adaptive Planner Learning from Demonstration)のAPPLDを紹介する。
APPLDは異なる環境で異なるナビゲーションシステムを実行する2つのロボットで検証されている。
実験結果から,APPLDはナビゲーションシステムよりも,デフォルトパラメータや専門家パラメータ,さらには人間実証者自体よりも優れていることが示された。
論文 参考訳(メタデータ) (2020-03-31T21:15:16Z) - Deep Learning based Pedestrian Inertial Navigation: Methods, Dataset and
On-Device Inference [49.88536971774444]
慣性測定ユニット(IMU)は小型で安価でエネルギー効率が良く、スマートデバイスや移動ロボットに広く使われている。
正確で信頼性の高い歩行者ナビゲーションをサポートするために慣性データをエクスプロイトすることは、新しいインターネット・オブ・シングス・アプリケーションやサービスにとって重要なコンポーネントである。
我々は、深層学習に基づく慣性ナビゲーション研究のための最初の公開データセットであるOxIOD(OxIOD)を提示、リリースする。
論文 参考訳(メタデータ) (2020-01-13T04:41:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。