論文の概要: SGoLAM: Simultaneous Goal Localization and Mapping for Multi-Object Goal
Navigation
- arxiv url: http://arxiv.org/abs/2110.07171v1
- Date: Thu, 14 Oct 2021 06:15:14 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-15 14:37:28.008452
- Title: SGoLAM: Simultaneous Goal Localization and Mapping for Multi-Object Goal
Navigation
- Title(参考訳): SGoLAM:マルチオブジェクトゴールナビゲーションのための同時ゴールローカライゼーションとマッピング
- Authors: Junho Kim, Eun Sun Lee, Mingi Lee, Donsu Zhang, and Young Min Kim
- Abstract要約: マルチオブジェクトゴールナビゲーションのためのシンプルで効率的なアルゴリズムであるSGoLAMを提案する。
RGB-DカメラとGPS/センサーを装備したエージェントを前提として,現実的な3D環境下でターゲットオブジェクトの列に移動させることが目的である。
SGoLAMはCVPR 2021 MultiON(Multi-Object Goal Navigation)の2位にランクインしている。
- 参考スコア(独自算出の注目度): 5.447924312563365
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present SGoLAM, short for simultaneous goal localization and mapping,
which is a simple and efficient algorithm for Multi-Object Goal navigation.
Given an agent equipped with an RGB-D camera and a GPS/Compass sensor, our
objective is to have the agent navigate to a sequence of target objects in
realistic 3D environments. Our pipeline fully leverages the strength of
classical approaches for visual navigation, by decomposing the problem into two
key components: mapping and goal localization. The mapping module converts the
depth observations into an occupancy map, and the goal localization module
marks the locations of goal objects. The agent's policy is determined using the
information provided by the two modules: if a current goal is found, plan
towards the goal and otherwise, perform exploration. As our approach does not
require any training of neural networks, it could be used in an off-the-shelf
manner, and amenable for fast generalization in new, unseen environments.
Nonetheless, our approach performs on par with the state-of-the-art
learning-based approaches. SGoLAM is ranked 2nd in the CVPR 2021 MultiON
(Multi-Object Goal Navigation) challenge. We have made our code publicly
available at \emph{https://github.com/eunsunlee/SGoLAM}.
- Abstract(参考訳): 本稿では,多目的目標探索のための簡易かつ効率的なアルゴリズムであるsgolamについて述べる。
RGB-DカメラとGPS/コンパスセンサーを装備したエージェントは,現実的な3D環境下でターゲットオブジェクトの列に移動させることが目的である。
我々のパイプラインは、視覚ナビゲーションのための古典的なアプローチの強みをフル活用し、問題をマッピングとゴールローカライゼーションという2つの重要なコンポーネントに分解する。
マッピングモジュールは深度観測を占有マップに変換し、ゴールローカライズモジュールは目標オブジェクトの位置をマークする。
エージェントのポリシーは、2つのモジュールによって提供される情報を使って決定される。
私たちのアプローチでは、ニューラルネットワークのトレーニングは必要としないため、既成の方法で使用することができ、新しい、目に見えない環境での迅速な一般化に役立てることができる。
それでも、我々のアプローチは最先端の学習ベースのアプローチと同等に機能する。
SGoLAMはCVPR 2021 MultiON(Multi-Object Goal Navigation)の2位にランクインしている。
私たちはコードを \emph{https://github.com/eunsunlee/sgolam} で公開しました。
関連論文リスト
- GOMAA-Geo: GOal Modality Agnostic Active Geo-localization [49.599465495973654]
エージェントが空中ナビゲーション中に観測された一連の視覚的手がかりを用いて、複数の可能なモダリティによって特定されたターゲットを見つけるという、アクティブなジオローカライゼーション(AGL)の課題を考察する。
GOMAA-Geo は、ゴールモダリティ間のゼロショット一般化のためのゴールモダリティアクティブなジオローカライゼーションエージェントである。
論文 参考訳(メタデータ) (2024-06-04T02:59:36Z) - Interactive Semantic Map Representation for Skill-based Visual Object
Navigation [43.71312386938849]
本稿では,室内環境との相互作用にともなうシーンセマンティックマップの表現について紹介する。
我々はこの表現をSkillTronと呼ばれる本格的なナビゲーション手法に実装した。
提案手法により,ロボット探索の中間目標とオブジェクトナビゲーションの最終目標の両方を形成できる。
論文 参考訳(メタデータ) (2023-11-07T16:30:12Z) - Zero-Shot Object Goal Visual Navigation With Class-Independent Relationship Network [3.0820097046465285]
ゼロショット(Zero-shot)とは、エージェントが探すべきターゲットがトレーニングフェーズ中にトレーニングされないことを意味する。
本研究では,学習中の目標特徴とナビゲーション能力の結合の問題に対処するために,クラス独立関係ネットワーク(CIRN)を提案する。
本手法は、ゼロショット目標視覚ナビゲーションタスクにおける最先端のアプローチよりも優れている。
論文 参考訳(メタデータ) (2023-10-15T16:42:14Z) - NoMaD: Goal Masked Diffusion Policies for Navigation and Exploration [57.15811390835294]
本稿では,目標指向ナビゲーションと目標非依存探索の両方を扱うために,単一の統合拡散政策をトレーニングする方法について述べる。
この統一された政策は、新しい環境における目標を視覚的に示す際に、全体的な性能が向上することを示す。
実世界の移動ロボットプラットフォーム上で実施した実験は,5つの代替手法と比較して,見えない環境における効果的なナビゲーションを示す。
論文 参考訳(メタデータ) (2023-10-11T21:07:14Z) - MOPA: Modular Object Navigation with PointGoal Agents [23.114218279754663]
MOPAは、(a)RGB画像からオブジェクトを識別するように訓練されたオブジェクト検出モジュール、(b)観察対象のセマンティックマップを構築するマップ構築モジュール、(c)エージェントが環境を探索できる探索モジュール、(d)特定対象オブジェクトに移動するためのナビゲーションモジュールの4つのモジュールから構成される。
我々は,スクラッチから学習する代わりに,事前学習したPointGoalエージェントをナビゲーションモデルとして効果的に再利用できることを示し,時間と計算時間を節約できることを示した。
論文 参考訳(メタデータ) (2023-04-07T15:32:16Z) - Unleash the Potential of Image Branch for Cross-modal 3D Object
Detection [67.94357336206136]
画像分岐のポテンシャルを2つの側面から解き放つことを目的として,新しい3Dオブジェクト検出器UPIDetを提案する。
まず、UPIDetは正規化された局所座標写像推定と呼ばれる新しい2次元補助タスクを導入する。
第2に,イメージブランチのトレーニング目標から逆転する勾配によって,ポイントクラウドバックボーンの表現能力を向上できることを見出した。
論文 参考訳(メタデータ) (2023-01-22T08:26:58Z) - SOON: Scenario Oriented Object Navigation with Graph-based Exploration [102.74649829684617]
人間のように3Dエンボディ環境のどこからでも言語ガイドされたターゲットに向かって移動する能力は、インテリジェントロボットの「聖杯」目標の1つです。
ほとんどのビジュアルナビゲーションベンチマークは、ステップバイステップの詳細な命令セットに導かれ、固定された出発点から目標に向かって移動することに焦点を当てている。
このアプローチは、人間だけが物体とその周囲がどのように見えるかを説明する現実世界の問題から逸脱し、ロボットにどこからでも航行を依頼する。
論文 参考訳(メタデータ) (2021-03-31T15:01:04Z) - Object Goal Navigation using Goal-Oriented Semantic Exploration [98.14078233526476]
本研究は,未確認環境における対象カテゴリーのインスタンスにナビゲートするオブジェクトゴールナビゲーションの問題を研究する。
本稿では,表層的なセマンティックマップを構築し,効率的に環境を探索する「ゴール指向セマンティック探索」というモジュールシステムを提案する。
論文 参考訳(メタデータ) (2020-07-01T17:52:32Z) - Improving Target-driven Visual Navigation with Attention on 3D Spatial
Relationships [52.72020203771489]
3次元屋内シーンにおける深部強化学習(DRL)を用いた目標駆動型視覚ナビゲーションについて検討した。
提案手法は視覚特徴と3次元空間表現を組み合わせてナビゲーションポリシーを学習する。
AI2-THORで実施した我々の実験は、SRとSPLの指標において、モデルがベースラインを上回っていることを示している。
論文 参考訳(メタデータ) (2020-04-29T08:46:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。