論文の概要: ObjectNav Revisited: On Evaluation of Embodied Agents Navigating to
Objects
- arxiv url: http://arxiv.org/abs/2006.13171v2
- Date: Sun, 30 Aug 2020 04:28:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-17 23:46:21.495604
- Title: ObjectNav Revisited: On Evaluation of Embodied Agents Navigating to
Objects
- Title(参考訳): objectnav revisited: オブジェクトにナビゲートする具体化エージェントの評価について
- Authors: Dhruv Batra, Aaron Gokaslan, Aniruddha Kembhavi, Oleksandr Maksymets,
Roozbeh Mottaghi, Manolis Savva, Alexander Toshev, Erik Wijmans
- Abstract要約: この文書は、ObjectNavのワーキンググループのコンセンサスレコメンデーションを要約します。
評価基準の微妙だが重要な詳細について推奨する。
CVPR 2020のEmbodied AIワークショップで実施された課題において、これらの推奨事項のインスタンス化について、詳細な説明を行う。
- 参考スコア(独自算出の注目度): 119.46959413000594
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We revisit the problem of Object-Goal Navigation (ObjectNav). In its simplest
form, ObjectNav is defined as the task of navigating to an object, specified by
its label, in an unexplored environment. In particular, the agent is
initialized at a random location and pose in an environment and asked to find
an instance of an object category, e.g., find a chair, by navigating to it.
As the community begins to show increased interest in semantic goal
specification for navigation tasks, a number of different often-inconsistent
interpretations of this task are emerging. This document summarizes the
consensus recommendations of this working group on ObjectNav. In particular, we
make recommendations on subtle but important details of evaluation criteria
(for measuring success when navigating towards a target object), the agent's
embodiment parameters, and the characteristics of the environments within which
the task is carried out. Finally, we provide a detailed description of the
instantiation of these recommendations in challenges organized at the Embodied
AI workshop at CVPR 2020 http://embodied-ai.org .
- Abstract(参考訳): 我々はObject-Goal Navigation(ObjectNav)の問題を再考する。
最も単純な形では、objectnavは、未探索の環境でそのラベルによって指定されたオブジェクトにナビゲートするタスクとして定義される。
特に、エージェントはランダムな場所に初期化され、環境の中でポーズをとり、それにナビゲートすることで、例えば椅子を見つけるなど、オブジェクトのカテゴリのインスタンスを見つけるように要求される。
ナビゲーションタスクのセマンティックゴール仕様に対するコミュニティの関心が高まり始めるにつれ、このタスクの多くの異なる非一貫性な解釈が生まれつつある。
この文書は、このワーキンググループのObjectNavに関するコンセンサス勧告をまとめたものです。
特に,評価基準(対象対象物に対してナビゲートする場合の成功度を測定するため),エージェントの具体化パラメータ,タスクが実行される環境の特性について,微妙だが重要な詳細を推奨する。
最後に、cvpr 2020 http://embodied-ai.org.com/embodied ai workshopで組織された課題における、これらの推奨のインスタンス化に関する詳細な説明を提供する。
関連論文リスト
- Personalized Instance-based Navigation Toward User-Specific Objects in Realistic Environments [44.6372390798904]
本稿では,特定の個人オブジェクトの位置と到達を具体化するタスクデノマイトされたパーソナライズされたパーソナライズドインスタンスベースのナビゲーション(PIN)を提案する。
各エピソードにおいて、ターゲットオブジェクトは、中性背景上の視覚的参照画像のセットと手動による注釈付きテキスト記述の2つのモードを使用してエージェントに提示される。
論文 参考訳(メタデータ) (2024-10-23T18:01:09Z) - Prioritized Semantic Learning for Zero-shot Instance Navigation [2.537056548731396]
我々はゼロショットのインスタンスナビゲーションについて研究し、エージェントはトレーニングにオブジェクトアノテーションを使わずに特定のオブジェクトにナビゲートする。
本稿では,ナビゲーションエージェントのセマンティック理解能力を向上させるために,優先度付き意味学習(PSL)手法を提案する。
我々のPSLエージェントは、0ショットのObjectNavにおいて、0ショットのObjectNavを66%上回り、新しいInstanceNavタスクよりも優れている。
論文 参考訳(メタデータ) (2024-03-18T10:45:50Z) - Right Place, Right Time! Towards ObjectNav for Non-Stationary Goals [55.581423861790945]
本研究では,屋内環境における非定常的かつ隠蔽されたターゲットに対して,ObjectNavタスクに取り組むための新しい手法を提案する。
本稿では,新しいメモリ拡張 LLM ベースのポリシーを用いて,その定式化,実現可能性,ナビゲーションベンチマークを提案する。
論文 参考訳(メタデータ) (2024-03-14T22:33:22Z) - Find What You Want: Learning Demand-conditioned Object Attribute Space
for Demand-driven Navigation [5.106884746419666]
視覚オブジェクトナビゲーション(VON)のタスクは、特定のシーン内で特定のオブジェクトを特定できるエージェントの能力を含む。
現実のシナリオでは、これらの条件が常に満たされることを保証することはしばしば困難である。
本稿では,ユーザの要求をタスク命令として活用する,需要駆動ナビゲーション(DDN)を提案する。
論文 参考訳(メタデータ) (2023-09-15T04:07:57Z) - Instance-Specific Image Goal Navigation: Training Embodied Agents to
Find Object Instances [90.61897965658183]
画像ゴールによる視覚ナビゲーションの具体化問題(ImageNav)について考察する。
関連するナビゲーションタスクとは異なり、ImageNavはメソッド間の比較を難しくする標準化されたタスク定義を持っていない。
これらの制限に対処するために、インスタンス固有のImageNavタスク(ImageNav)を提示します。
論文 参考訳(メタデータ) (2022-11-29T02:29:35Z) - SOON: Scenario Oriented Object Navigation with Graph-based Exploration [102.74649829684617]
人間のように3Dエンボディ環境のどこからでも言語ガイドされたターゲットに向かって移動する能力は、インテリジェントロボットの「聖杯」目標の1つです。
ほとんどのビジュアルナビゲーションベンチマークは、ステップバイステップの詳細な命令セットに導かれ、固定された出発点から目標に向かって移動することに焦点を当てている。
このアプローチは、人間だけが物体とその周囲がどのように見えるかを説明する現実世界の問題から逸脱し、ロボットにどこからでも航行を依頼する。
論文 参考訳(メタデータ) (2021-03-31T15:01:04Z) - ArraMon: A Joint Navigation-Assembly Instruction Interpretation Task in
Dynamic Environments [85.81157224163876]
我々は、収集したオブジェクトを組み立てるビジョン・アンド・ランゲージナビゲーションとオブジェクト参照表現理解を組み合わせることで、新しい共同ナビゲーション・アンド・アセンブリタスク、ArraMonを作成します。
この作業中、エージェントは、複雑で現実的な屋外環境において、自然言語の指示に基づいてナビゲートすることで、異なる対象物を1対1で見つけ、収集するよう依頼される。
我々は,いくつかのベースラインモデル(積分とバイアス)とメトリクス(nDTW, CTC, rPOD, PTC)の結果を提示する。
論文 参考訳(メタデータ) (2020-11-15T23:30:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。