論文の概要: Reasoning about the Unseen for Efficient Outdoor Object Navigation
- arxiv url: http://arxiv.org/abs/2309.10103v2
- Date: Tue, 01 Oct 2024 20:29:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-03 15:16:48.713383
- Title: Reasoning about the Unseen for Efficient Outdoor Object Navigation
- Title(参考訳): 効果的な屋外物体ナビゲーションのための見当たらない理由
- Authors: Quanting Xie, Tianyi Zhang, Kedi Xu, Matthew Johnson-Roberson, Yonatan Bisk,
- Abstract要約: 本稿では,LLM(Large Language Models)のための新しいメカニズムであるOUTDOORを導入する。
シミュレーションされたドローンと屋外環境での物理的四足歩行の両方で印象的な結果が得られた。
- 参考スコア(独自算出の注目度): 31.699514279584076
- License:
- Abstract: Robots should exist anywhere humans do: indoors, outdoors, and even unmapped environments. In contrast, the focus of recent advancements in Object Goal Navigation(OGN) has targeted navigating in indoor environments by leveraging spatial and semantic cues that do not generalize outdoors. While these contributions provide valuable insights into indoor scenarios, the broader spectrum of real-world robotic applications often extends to outdoor settings. As we transition to the vast and complex terrains of outdoor environments, new challenges emerge. Unlike the structured layouts found indoors, outdoor environments lack clear spatial delineations and are riddled with inherent semantic ambiguities. Despite this, humans navigate with ease because we can reason about the unseen. We introduce a new task OUTDOOR, a new mechanism for Large Language Models (LLMs) to accurately hallucinate possible futures, and a new computationally aware success metric for pushing research forward in this more complex domain. Additionally, we show impressive results on both a simulated drone and physical quadruped in outdoor environments. Our agent has no premapping and our formalism outperforms naive LLM-based approaches
- Abstract(参考訳): ロボットは、屋内、屋外、さらにはマップされていない環境など、人間がするあらゆる場所に存在すべきである。
対照的に、最近のOGN(Object Goal Navigation)の進歩の焦点は、屋外を一般化しない空間的・意味的な手がかりを活用することで、屋内環境におけるナビゲーションを目標にしている。
これらのコントリビューションは屋内シナリオに関する貴重な洞察を提供する一方で、現実世界のロボットアプリケーションの幅広い範囲は、しばしば屋外設定にまで拡張される。
屋外環境の広大な複雑な地形に移行するにつれ、新たな課題が浮かび上がってくる。
屋内で見られる構造的なレイアウトとは異なり、屋外の環境は明確な空間的境界を欠き、固有の意味的曖昧さを欠いている。
それにもかかわらず、人間は目に見えないものについて推論できるので、簡単にナビゲートできます。
我々は,新たなタスクOUTDOOR,Large Language Models (LLM) の新たなメカニズムを導入し,将来を正確に幻覚させるとともに,この複雑な領域で研究を進めるための新しい計算学的成功指標を提案する。
さらに、シミュレーションされたドローンと屋外環境における物理的四足歩行の両方に印象的な結果を示す。
私たちのエージェントはプリマッピングがなく、フォーマリズムはナイーブLSMベースのアプローチよりも優れています。
関連論文リスト
- EmbodiedCity: A Benchmark Platform for Embodied Agent in Real-world City Environment [38.14321677323052]
身体的人工知能は、エージェントの身体が人間のような行動を引き起こす役割を強調している。
本稿では,実環境におけるインテリジェンス評価のためのベンチマークプラットフォームを構築する。
論文 参考訳(メタデータ) (2024-10-12T17:49:26Z) - SITUATE: Indoor Human Trajectory Prediction through Geometric Features and Self-Supervised Vision Representation [7.962602954742342]
本稿では,室内における人間の軌道予測に対処する新しい手法であるSITUATEを提案する。
幾何学学習モジュールは、室内空間に固有の内在的対称性と人間の動きをモデル化する。
本手法は,2つの屋内軌道予測データセットの総合的な実験により評価する。
論文 参考訳(メタデータ) (2024-09-01T16:36:07Z) - Navigation with Large Language Models: Semantic Guesswork as a Heuristic
for Planning [73.0990339667978]
不慣れな環境でのナビゲーションは、ロボットにとって大きな課題となる。
言語モデルを用いて、新しい現実世界環境のバイアス探索を行う。
実環境におけるLFGの評価とシミュレーションベンチマークを行った。
論文 参考訳(メタデータ) (2023-10-16T06:21:06Z) - Learning Hierarchical Interactive Multi-Object Search for Mobile
Manipulation [10.21450780640562]
本稿では,ロボットが扉を開けて部屋をナビゲートし,キャビネットや引き出しの中を探索し,対象物を見つける,インタラクティブな多目的探索タスクを提案する。
これらの新たな課題は、探索されていない環境での操作とナビゲーションのスキルを組み合わせる必要がある。
本研究では,探索,ナビゲーション,操作のスキルを習得する階層的強化学習手法であるHIMOSを提案する。
論文 参考訳(メタデータ) (2023-07-12T12:25:33Z) - Open-ended search for environments and adapted agents using MAP-Elites [1.4502611532302039]
私たちは地形と仮想生物の地図を作成し、それらを補足します。
グリッドの次元としてノベルティを用いることで、地図は継続的に発展し、新しい環境の探索を促進することができる。
地図に対する手作りの有界次元は、広い環境のより迅速な探索に繋がるが、有界と無界の両方のアプローチは、多様な地形の解決に成功している。
論文 参考訳(メタデータ) (2023-05-02T02:03:51Z) - Pushing it out of the Way: Interactive Visual Navigation [62.296686176988125]
エージェントが目標に合わせてより効率的にナビゲートするために環境を変更することを学ぶインタラクティブナビゲーションの問題を研究します。
エージェントの行動によって引き起こされる環境の変化を明示的に予測するために,neural interaction engine(nie)を導入する。
計画中の変更をモデル化することで、エージェントがナビゲーション能力を大幅に改善できることが分かりました。
論文 参考訳(メタデータ) (2021-04-28T22:46:41Z) - Diagnosing Vision-and-Language Navigation: What Really Matters [61.72935815656582]
視覚言語ナビゲーション(VLN)は、エージェントが自然言語の指示に従って視覚環境をナビゲートするマルチモーダルタスクである。
近年の研究では、室内および屋外のVLNタスクのパフォーマンス改善が鈍化している。
本研究では,ナビゲーション中のエージェントの焦点を明らかにするための一連の診断実験を行う。
論文 参考訳(メタデータ) (2021-03-30T17:59:07Z) - Occupancy Anticipation for Efficient Exploration and Navigation [97.17517060585875]
そこで我々は,エージェントが自我中心のRGB-D観測を用いて,その占有状態を可視領域を超えて推定する,占有予測を提案する。
エゴセントリックなビューとトップダウンマップの両方でコンテキストを活用することで、私たちのモデルは環境のより広いマップを予測できます。
われわれのアプローチは、2020 Habitat PointNav Challengeの優勝だ。
論文 参考訳(メタデータ) (2020-08-21T03:16:51Z) - Learning Affordance Landscapes for Interaction Exploration in 3D
Environments [101.90004767771897]
エージェントは環境の仕組みを習得できなければならない。
相互作用探索のための強化学習手法を提案する。
AI2-iTHORで私たちのアイデアを実証します。
論文 参考訳(メタデータ) (2020-08-21T00:29:36Z) - Learning to Move with Affordance Maps [57.198806691838364]
物理的な空間を自律的に探索し、ナビゲートする能力は、事実上あらゆる移動型自律エージェントの基本的な要件である。
従来のSLAMベースの探索とナビゲーションのアプローチは、主にシーン幾何学の活用に重点を置いている。
学習可能な余剰マップは探索と航法の両方において従来のアプローチの強化に利用でき、性能が大幅に向上することを示します。
論文 参考訳(メタデータ) (2020-01-08T04:05:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。