論文の概要: Sparse Image based Navigation Architecture to Mitigate the need of
precise Localization in Mobile Robots
- arxiv url: http://arxiv.org/abs/2203.15272v1
- Date: Tue, 29 Mar 2022 06:38:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-31 05:05:34.247743
- Title: Sparse Image based Navigation Architecture to Mitigate the need of
precise Localization in Mobile Robots
- Title(参考訳): 移動ロボットの正確な位置決めの必要性を緩和するスパース画像に基づくナビゲーションアーキテクチャ
- Authors: Pranay Mathur, Rajesh Kumar, Sarthak Upadhyay
- Abstract要約: 本稿では,スパース画像を用いた自律走行を追求する移動ロボットの正確な位置決めの必要性を軽減することに焦点を当てる。
提案手法は,教師なし学習のためのモデルアーキテクチャであるRoomNetで構成され,環境の粗い同定を行う。
後者はスパース画像マッチングを用いて、マッピングおよびトレーニング段階においてロボットが見たフレームをvis-a-visで達成したフレームの類似性を特徴付ける。
- 参考スコア(独自算出の注目度): 3.1556608426768324
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Traditional simultaneous localization and mapping (SLAM) methods focus on
improvement in the robot's localization under environment and sensor
uncertainty. This paper, however, focuses on mitigating the need for exact
localization of a mobile robot to pursue autonomous navigation using a sparse
set of images. The proposed method consists of a model architecture - RoomNet,
for unsupervised learning resulting in a coarse identification of the
environment and a separate local navigation policy for local identification and
navigation. The former learns and predicts the scene based on the short term
image sequences seen by the robot along with the transition image scenarios
using long term image sequences. The latter uses sparse image matching to
characterise the similarity of frames achieved vis-a-vis the frames viewed by
the robot during the mapping and training stage. A sparse graph of the image
sequence is created which is then used to carry out robust navigation purely on
the basis of visual goals. The proposed approach is evaluated on two robots in
a test environment and demonstrates the ability to navigate in dynamic
environments where landmarks are obscured and classical localization methods
fail.
- Abstract(参考訳): 従来のSLAM法は、環境下でのロボットのローカライゼーションの改善とセンサの不確実性に焦点を当てている。
しかし,本稿は,スパース画像を用いた自律走行を追求する移動ロボットの正確な位置決めの必要性を軽減することに焦点を当てている。
提案手法は,非教師なし学習のためのroomnetというモデルアーキテクチャから成り,環境の粗い識別と,局所的識別とナビゲーションのための個別の局所的ナビゲーションポリシが実現されている。
前者は、ロボットが見ている短期画像シーケンスと、長期画像シーケンスを用いた遷移画像シナリオに基づいて、シーンを学習し、予測する。
後者はスパース画像マッチングを用いて、マッピングおよびトレーニング段階においてロボットが見たフレームをvis-a-visで達成したフレームの類似性を特徴付ける。
画像シーケンスのスパースグラフが作成され、視覚目標に基づいて純粋にロバストなナビゲーションを実行するために使用される。
提案手法はテスト環境における2つのロボット上で評価され,ランドマークが曖昧で古典的なローカライゼーション手法が失敗する動的環境をナビゲートする能力を示す。
関連論文リスト
- Learning Where to Look: Self-supervised Viewpoint Selection for Active Localization using Geometrical Information [68.10033984296247]
本稿では, 位置決めの精度を高めるために, 視点選択の重要性を強調し, アクティブな位置決め領域について検討する。
私たちのコントリビューションは、リアルタイム操作用に設計されたシンプルなアーキテクチャ、自己教師付きデータトレーニング方法、および実世界のロボティクスアプリケーションに適した計画フレームワークにマップを一貫して統合する能力による、データ駆動型アプローチの使用に関するものです。
論文 参考訳(メタデータ) (2024-07-22T12:32:09Z) - Mapping High-level Semantic Regions in Indoor Environments without
Object Recognition [50.624970503498226]
本研究では,屋内環境における埋め込みナビゲーションによる意味領域マッピング手法を提案する。
地域識別を実現するために,視覚言語モデルを用いて地図作成のためのシーン情報を提供する。
グローバルなフレームにエゴセントリックなシーン理解を投影することにより、提案手法は各場所の可能な領域ラベル上の分布としてのセマンティックマップを生成する。
論文 参考訳(メタデータ) (2024-03-11T18:09:50Z) - Interactive Semantic Map Representation for Skill-based Visual Object
Navigation [43.71312386938849]
本稿では,室内環境との相互作用にともなうシーンセマンティックマップの表現について紹介する。
我々はこの表現をSkillTronと呼ばれる本格的なナビゲーション手法に実装した。
提案手法により,ロボット探索の中間目標とオブジェクトナビゲーションの最終目標の両方を形成できる。
論文 参考訳(メタデータ) (2023-11-07T16:30:12Z) - NoMaD: Goal Masked Diffusion Policies for Navigation and Exploration [57.15811390835294]
本稿では,目標指向ナビゲーションと目標非依存探索の両方を扱うために,単一の統合拡散政策をトレーニングする方法について述べる。
この統一された政策は、新しい環境における目標を視覚的に示す際に、全体的な性能が向上することを示す。
実世界の移動ロボットプラットフォーム上で実施した実験は,5つの代替手法と比較して,見えない環境における効果的なナビゲーションを示す。
論文 参考訳(メタデータ) (2023-10-11T21:07:14Z) - Location-Aware Self-Supervised Transformers [74.76585889813207]
画像部品の相対的な位置を予測し,セマンティックセグメンテーションのためのネットワークを事前訓練する。
参照パッチのサブセットを問合せのサブセットにマスキングすることで,タスクの難しさを制御します。
実験により,この位置認識事前学習が,いくつかの難解なセマンティックセグメンテーションベンチマークに競合する表現をもたらすことが示された。
論文 参考訳(メタデータ) (2022-12-05T16:24:29Z) - UNav: An Infrastructure-Independent Vision-Based Navigation System for
People with Blindness and Low vision [4.128685217530067]
視覚障害者のためのナビゲーション支援のための視覚に基づくローカライゼーションパイプラインを提案する。
モバイルアプリケーション上でエンドユーザが取得したクエリ画像に対して、パイプラインは視覚的位置認識(VPR)アルゴリズムを活用して、参照画像データベースで類似した画像を見つける。
カスタマイズされたユーザインタフェースは、一連の画像から構築された3D再構成されたスパースマップを、対応する2Dフロアプランに投影する。
論文 参考訳(メタデータ) (2022-09-22T22:21:37Z) - Semantic Image Alignment for Vehicle Localization [111.59616433224662]
単眼カメラからのセマンティックセグメンテーションを用いた高密度セマンティックマップにおける車両位置推定手法を提案する。
既存の視覚的ローカライゼーションアプローチとは対照的に、システムは追加のキーポイント機能、手作りのローカライゼーションランドマーク抽出器、高価なLiDARセンサーを必要としない。
論文 参考訳(メタデータ) (2021-10-08T14:40:15Z) - SeanNet: Semantic Understanding Network for Localization Under Object
Dynamics [14.936899865448892]
人間の日常活動によって引き起こされるオブジェクトレベルのシーンダイナミクスの下では、ロボットは環境にしっかりと位置決めする必要がある。
これまでは、静的環境における視覚的位置決めに取り組んできたが、オブジェクトレベルのシーンダイナミクスは、ロボットの長期展開における既存の手法に挑戦している。
本稿では,セマンティックアンダースタンディングネットワーク(SeanNet)を提案する。
論文 参考訳(メタデータ) (2021-10-05T18:29:07Z) - Navigation-Oriented Scene Understanding for Robotic Autonomy: Learning
to Segment Driveability in Egocentric Images [25.350677396144075]
この研究は、屋外ロボットナビゲーションのシーン理解に取り組み、オンボードカメラで撮影された画像にのみ依存する。
我々は、ロボットがどのようにナビゲートするかという点で、自我中心の画像を直接分類し、学習問題を自律的なナビゲーションタスクに合わせる。
任意のシーンに適用可能な3つの駆動性レベルからなる汎用的かつスケーラブルなアベイランスベースの定義を提案する。
論文 参考訳(メタデータ) (2021-09-15T12:25:56Z) - Cross-Descriptor Visual Localization and Mapping [81.16435356103133]
視覚のローカライゼーションとマッピングは、Mixed Realityとロボティクスシステムの大部分を支える重要な技術である。
特徴表現の連続的な更新を必要とする局所化とマッピングのための3つの新しいシナリオを提案する。
我々のデータ駆動型アプローチは特徴記述子型に非依存であり、計算要求が低く、記述アルゴリズムの数と線形にスケールする。
論文 参考訳(メタデータ) (2020-12-02T18:19:51Z) - Spatial Action Maps for Mobile Manipulation [30.018835572458844]
状態と同じドメインで定義された高密度なアクション表現で学習することが有利であることを示す。
本稿では,可能なアクションの集合をピクセルマップで表現する「空間的アクションマップ」を提案する。
空間行動マップで学習したポリシーは、従来の代替手段よりもはるかに優れたパフォーマンスを実現する。
論文 参考訳(メタデータ) (2020-04-20T09:06:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。