論文の概要: Search for or Navigate to? Dual Adaptive Thinking for Object Navigation
- arxiv url: http://arxiv.org/abs/2208.00553v1
- Date: Mon, 1 Aug 2022 01:04:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-02 14:29:58.099624
- Title: Search for or Navigate to? Dual Adaptive Thinking for Object Navigation
- Title(参考訳): 検索かナビゲートか?
オブジェクトナビゲーションのためのデュアル適応思考
- Authors: Ronghao Dang, Liuyi Wang, Zongtao He, Shuai Su, Chengju Liu, Qijun
Chen
- Abstract要約: オブジェクトナビゲーション分野における手法は,「探索」フェーズの重要さを無視しながら,「探索」フェーズを強化するために,オブジェクトアソシエーションをほとんど考慮しない。
本稿では、異なるナビゲーション段階における異なる思考戦略を柔軟に調整するための二重適応的思考法(DAT)を提案する。
The State-of-the-art (SOTA) 法と比較すると, 成功率10.8%, 21.5%, 15.7%の増加, 経路長(SPL)による成功, ナビゲーション効率(SNE)による成功を報告した。
- 参考スコア(独自算出の注目度): 5.725213873382458
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: "Search for" or "Navigate to"? When finding an object, the two choices always
come up in our subconscious mind. Before seeing the target, we search for the
target based on experience. After seeing the target, we remember the target
location and navigate to. However, recently methods in object navigation field
almost only consider using object association to enhance "search for" phase
while neglect the importance of "navigate to" phase. Therefore, this paper
proposes the dual adaptive thinking (DAT) method to flexibly adjust the
different thinking strategies at different navigation stages. Dual thinking
includes search thinking with the object association ability and navigation
thinking with the target location ability. To make the navigation thinking more
effective, we design the target-oriented memory graph (TOMG) to store
historical target information and the target-aware multi-scale aggregator
(TAMSA) to encode the relative target position. We assess our methods on the
AI2-Thor dataset. Compared with the state-of-the-art (SOTA) method, our method
reports 10.8%, 21.5% and 15.7% increase in success rate (SR), success weighted
by path length (SPL) and success weighted by navigation efficiency (SNE),
respectively.
- Abstract(参考訳): "Search for" あるいは "Navigate to"?
物体を見つけるとき、2つの選択は常に潜在意識に現れます。
ターゲットを見る前に、経験に基づいてターゲットを探索する。
ターゲットを見た後、ターゲットの位置を記憶し、ナビゲートします。
しかし、近年のオブジェクトナビゲーション分野における手法では、「探索」フェーズの重要さを無視しつつ、「探索」フェーズを強化するためにオブジェクトアソシエーションのみを考慮している。
そこで本稿では,異なるナビゲーション段階における異なる思考戦略を柔軟に調整する,二重適応思考(DAT)手法を提案する。
デュアル思考には、オブジェクト関連能力を持つ検索思考と、ターゲット位置能力を持つナビゲーション思考が含まれる。
ナビゲーション思考をより効果的にするために,歴史目標情報を格納する目標指向メモリグラフ (tomg) と,相対目標位置を符号化する目標対応マルチスケールアグリゲータ (tamsa) を設計した。
我々はAI2-Thorデータセットを用いて手法を評価する。
方法と比較すると, 成功率10.8%, 21.5%, 15.7%の増加, 経路長(SPL)による成功, ナビゲーション効率(SNE)による成功を報告した。
関連論文リスト
- Two-Stage Depth Enhanced Learning with Obstacle Map For Object Navigation [11.667940255053582]
本稿では,RGBとトレーニングシーンの深度情報を用いて特徴抽出器の事前訓練を行い,ナビゲーション効率を向上する。
提案手法をAI2-ThorとRobothorで評価し,成功率と航法効率において最先端(SOTA)法を著しく上回っていることを示した。
論文 参考訳(メタデータ) (2024-06-20T08:35:10Z) - GOAT-Bench: A Benchmark for Multi-Modal Lifelong Navigation [65.71524410114797]
GOAT-BenchはユニバーサルナビゲーションタスクGO to AnyThing(GOAT)のベンチマークである。
GOATでは、エージェントはカテゴリ名、言語記述、イメージによって指定されたターゲットのシーケンスにナビゲートするように指示される。
我々はGOATタスク上でモノリシックなRLおよびモジュラーメソッドをベンチマークし、その性能をモダリティにわたって分析する。
論文 参考訳(メタデータ) (2024-04-09T20:40:00Z) - Right Place, Right Time! Towards ObjectNav for Non-Stationary Goals [55.581423861790945]
本研究では,屋内環境における非定常的かつ隠蔽されたターゲットに対して,ObjectNavタスクに取り組むための新しい手法を提案する。
本稿では,新しいメモリ拡張 LLM ベースのポリシーを用いて,その定式化,実現可能性,ナビゲーションベンチマークを提案する。
論文 参考訳(メタデータ) (2024-03-14T22:33:22Z) - Zero-Shot Object Goal Visual Navigation With Class-Independent Relationship Network [3.0820097046465285]
ゼロショット(Zero-shot)とは、エージェントが探すべきターゲットがトレーニングフェーズ中にトレーニングされないことを意味する。
本研究では,学習中の目標特徴とナビゲーション能力の結合の問題に対処するために,クラス独立関係ネットワーク(CIRN)を提案する。
本手法は、ゼロショット目標視覚ナビゲーションタスクにおける最先端のアプローチよりも優れている。
論文 参考訳(メタデータ) (2023-10-15T16:42:14Z) - NoMaD: Goal Masked Diffusion Policies for Navigation and Exploration [57.15811390835294]
本稿では,目標指向ナビゲーションと目標非依存探索の両方を扱うために,単一の統合拡散政策をトレーニングする方法について述べる。
この統一された政策は、新しい環境における目標を視覚的に示す際に、全体的な性能が向上することを示す。
実世界の移動ロボットプラットフォーム上で実施した実験は,5つの代替手法と比較して,見えない環境における効果的なナビゲーションを示す。
論文 参考訳(メタデータ) (2023-10-11T21:07:14Z) - Navigating to Objects in Unseen Environments by Distance Prediction [16.023495311387478]
推定距離マップに基づいて経路計画を直接実行可能なオブジェクトゴールナビゲーションフレームワークを提案する。
具体的には,鳥眼のセマンティックマップを入力として,地図セルから対象物までの距離を推定する。
推定距離マップを用いて、エージェントは環境を探索し、人間設計または学習されたナビゲーションポリシーに基づいて対象物に移動することができる。
論文 参考訳(メタデータ) (2022-02-08T09:22:50Z) - Explore before Moving: A Feasible Path Estimation and Memory Recalling
Framework for Embodied Navigation [117.26891277593205]
ナビゲーションに焦点をあて,経験や常識に欠ける既存のナビゲーションアルゴリズムの問題を解決する。
移動前に2回思考する能力に触発されて、不慣れな場面で目標を追求する実現可能な経路を考案し、パス推定とメモリリコールフレームワークと呼ばれる経路計画手法を提案する。
EmbodiedQAナビゲーションタスクにおけるPEMRの強力な実験結果を示す。
論文 参考訳(メタデータ) (2021-10-16T13:30:55Z) - SGoLAM: Simultaneous Goal Localization and Mapping for Multi-Object Goal
Navigation [5.447924312563365]
マルチオブジェクトゴールナビゲーションのためのシンプルで効率的なアルゴリズムであるSGoLAMを提案する。
RGB-DカメラとGPS/センサーを装備したエージェントを前提として,現実的な3D環境下でターゲットオブジェクトの列に移動させることが目的である。
SGoLAMはCVPR 2021 MultiON(Multi-Object Goal Navigation)の2位にランクインしている。
論文 参考訳(メタデータ) (2021-10-14T06:15:14Z) - Pushing it out of the Way: Interactive Visual Navigation [62.296686176988125]
エージェントが目標に合わせてより効率的にナビゲートするために環境を変更することを学ぶインタラクティブナビゲーションの問題を研究します。
エージェントの行動によって引き起こされる環境の変化を明示的に予測するために,neural interaction engine(nie)を導入する。
計画中の変更をモデル化することで、エージェントがナビゲーション能力を大幅に改善できることが分かりました。
論文 参考訳(メタデータ) (2021-04-28T22:46:41Z) - SOON: Scenario Oriented Object Navigation with Graph-based Exploration [102.74649829684617]
人間のように3Dエンボディ環境のどこからでも言語ガイドされたターゲットに向かって移動する能力は、インテリジェントロボットの「聖杯」目標の1つです。
ほとんどのビジュアルナビゲーションベンチマークは、ステップバイステップの詳細な命令セットに導かれ、固定された出発点から目標に向かって移動することに焦点を当てている。
このアプローチは、人間だけが物体とその周囲がどのように見えるかを説明する現実世界の問題から逸脱し、ロボットにどこからでも航行を依頼する。
論文 参考訳(メタデータ) (2021-03-31T15:01:04Z) - Learning hierarchical relationships for object-goal navigation [7.074818959144171]
室内におけるナビゲーションのためのメモリ利用共同階層型物体学習(MJOLNIR)を提案する。
MJOLNIRはターゲット駆動ナビゲーションアルゴリズムであり、ターゲットオブジェクトと周囲に存在するより健全なコンテキストオブジェクトの間に固有の関係を考察する。
我々のモデルは、よく知られた過適合問題に悩まされることなく、他のアルゴリズムよりもはるかに早く収束することを学ぶ。
論文 参考訳(メタデータ) (2020-03-15T04:01:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。