論文の概要: Reasoning about the Unseen for Efficient Outdoor Object Navigation
- arxiv url: http://arxiv.org/abs/2309.10103v1
- Date: Mon, 18 Sep 2023 19:24:21 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-20 17:49:36.357954
- Title: Reasoning about the Unseen for Efficient Outdoor Object Navigation
- Title(参考訳): 効果的な屋外物体ナビゲーションのための見当たらない理由
- Authors: Quanting Xie, Tianyi Zhang, Kedi Xu, Matthew Johnson-Roberson, and
Yonatan Bisk
- Abstract要約: 本稿では,LLM(Large Language Models)のための新しいメカニズムであるOUTDOORを導入する。
シミュレーションされたドローンと屋外環境での物理的四足歩行の両方で印象的な結果が得られた。
- 参考スコア(独自算出の注目度): 31.699514279584076
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Robots should exist anywhere humans do: indoors, outdoors, and even unmapped
environments. In contrast, the focus of recent advancements in Object Goal
Navigation(OGN) has targeted navigating in indoor environments by leveraging
spatial and semantic cues that do not generalize outdoors. While these
contributions provide valuable insights into indoor scenarios, the broader
spectrum of real-world robotic applications often extends to outdoor settings.
As we transition to the vast and complex terrains of outdoor environments, new
challenges emerge. Unlike the structured layouts found indoors, outdoor
environments lack clear spatial delineations and are riddled with inherent
semantic ambiguities. Despite this, humans navigate with ease because we can
reason about the unseen. We introduce a new task OUTDOOR, a new mechanism for
Large Language Models (LLMs) to accurately hallucinate possible futures, and a
new computationally aware success metric for pushing research forward in this
more complex domain. Additionally, we show impressive results on both a
simulated drone and physical quadruped in outdoor environments. Our agent has
no premapping and our formalism outperforms naive LLM-based approaches
- Abstract(参考訳): ロボットは、屋内、屋外、さらには未熟な環境など、どこにでも存在すべきである。
対照的に、最近のOGN(Object Goal Navigation)の進歩の焦点は、屋外を一般化しない空間的・意味的な手がかりを活用することで、屋内環境におけるナビゲーションを目標にしている。
これらの貢献は屋内のシナリオに対する貴重な洞察を提供するが、現実世界のロボットアプリケーションの幅広い範囲は屋外環境にも及んでいる。
屋外環境の広大な複雑な地形に移行するにつれて、新たな課題が生まれます。
屋内で見られる構造的なレイアウトとは異なり、屋外環境は明確な空間的境界を欠き、固有の意味的曖昧さに満ちている。
それにもかかわらず、人間は目に見えないものを推論できるので、簡単に移動できます。
本稿では,新しいタスクアウトドア,可能未来を正確に示すための大規模言語モデル(llms)のための新しいメカニズム,より複雑な領域で研究を進めるための計算的に認識された新しい成功指標を紹介する。
さらに、シミュレーションされたドローンと屋外環境における物理的四足歩行の両方に印象的な結果を示す。
私たちのエージェントはプリマッピングがなく、フォーマリズムはナイーブLSMベースのアプローチよりも優れています。
関連論文リスト
- EmbodiedCity: A Benchmark Platform for Embodied Agent in Real-world City Environment [38.14321677323052]
身体的人工知能は、エージェントの身体が人間のような行動を引き起こす役割を強調している。
本稿では,実環境におけるインテリジェンス評価のためのベンチマークプラットフォームを構築する。
論文 参考訳(メタデータ) (2024-10-12T17:49:26Z) - SITUATE: Indoor Human Trajectory Prediction through Geometric Features and Self-Supervised Vision Representation [7.962602954742342]
本稿では,室内における人間の軌道予測に対処する新しい手法であるSITUATEを提案する。
幾何学学習モジュールは、室内空間に固有の内在的対称性と人間の動きをモデル化する。
本手法は,2つの屋内軌道予測データセットの総合的な実験により評価する。
論文 参考訳(メタデータ) (2024-09-01T16:36:07Z) - Navigation with Large Language Models: Semantic Guesswork as a Heuristic
for Planning [73.0990339667978]
不慣れな環境でのナビゲーションは、ロボットにとって大きな課題となる。
言語モデルを用いて、新しい現実世界環境のバイアス探索を行う。
実環境におけるLFGの評価とシミュレーションベンチマークを行った。
論文 参考訳(メタデータ) (2023-10-16T06:21:06Z) - Learning Hierarchical Interactive Multi-Object Search for Mobile
Manipulation [10.21450780640562]
本稿では,ロボットが扉を開けて部屋をナビゲートし,キャビネットや引き出しの中を探索し,対象物を見つける,インタラクティブな多目的探索タスクを提案する。
これらの新たな課題は、探索されていない環境での操作とナビゲーションのスキルを組み合わせる必要がある。
本研究では,探索,ナビゲーション,操作のスキルを習得する階層的強化学習手法であるHIMOSを提案する。
論文 参考訳(メタデータ) (2023-07-12T12:25:33Z) - Open-ended search for environments and adapted agents using MAP-Elites [1.4502611532302039]
私たちは地形と仮想生物の地図を作成し、それらを補足します。
グリッドの次元としてノベルティを用いることで、地図は継続的に発展し、新しい環境の探索を促進することができる。
地図に対する手作りの有界次元は、広い環境のより迅速な探索に繋がるが、有界と無界の両方のアプローチは、多様な地形の解決に成功している。
論文 参考訳(メタデータ) (2023-05-02T02:03:51Z) - Pushing it out of the Way: Interactive Visual Navigation [62.296686176988125]
エージェントが目標に合わせてより効率的にナビゲートするために環境を変更することを学ぶインタラクティブナビゲーションの問題を研究します。
エージェントの行動によって引き起こされる環境の変化を明示的に予測するために,neural interaction engine(nie)を導入する。
計画中の変更をモデル化することで、エージェントがナビゲーション能力を大幅に改善できることが分かりました。
論文 参考訳(メタデータ) (2021-04-28T22:46:41Z) - Diagnosing Vision-and-Language Navigation: What Really Matters [61.72935815656582]
視覚言語ナビゲーション(VLN)は、エージェントが自然言語の指示に従って視覚環境をナビゲートするマルチモーダルタスクである。
近年の研究では、室内および屋外のVLNタスクのパフォーマンス改善が鈍化している。
本研究では,ナビゲーション中のエージェントの焦点を明らかにするための一連の診断実験を行う。
論文 参考訳(メタデータ) (2021-03-30T17:59:07Z) - Occupancy Anticipation for Efficient Exploration and Navigation [97.17517060585875]
そこで我々は,エージェントが自我中心のRGB-D観測を用いて,その占有状態を可視領域を超えて推定する,占有予測を提案する。
エゴセントリックなビューとトップダウンマップの両方でコンテキストを活用することで、私たちのモデルは環境のより広いマップを予測できます。
われわれのアプローチは、2020 Habitat PointNav Challengeの優勝だ。
論文 参考訳(メタデータ) (2020-08-21T03:16:51Z) - Learning Affordance Landscapes for Interaction Exploration in 3D
Environments [101.90004767771897]
エージェントは環境の仕組みを習得できなければならない。
相互作用探索のための強化学習手法を提案する。
AI2-iTHORで私たちのアイデアを実証します。
論文 参考訳(メタデータ) (2020-08-21T00:29:36Z) - Learning to Move with Affordance Maps [57.198806691838364]
物理的な空間を自律的に探索し、ナビゲートする能力は、事実上あらゆる移動型自律エージェントの基本的な要件である。
従来のSLAMベースの探索とナビゲーションのアプローチは、主にシーン幾何学の活用に重点を置いている。
学習可能な余剰マップは探索と航法の両方において従来のアプローチの強化に利用でき、性能が大幅に向上することを示します。
論文 参考訳(メタデータ) (2020-01-08T04:05:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。