論文の概要: BEyond observation: an approach for ObjectNav
- arxiv url: http://arxiv.org/abs/2106.11379v1
- Date: Mon, 21 Jun 2021 19:27:16 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-23 14:46:14.621483
- Title: BEyond observation: an approach for ObjectNav
- Title(参考訳): BEyond Observation: ObjectNavのアプローチ
- Authors: Daniel V. Ruiz, Eduardo Todt
- Abstract要約: 我々は,センサデータ融合と最先端機械学習アルゴリズムが,ビジュアルセマンティックナビゲーション(Visual Semantic Navigation)と呼ばれるEmbodied Artificial Intelligence (E-AI)タスクをどのように実行できるかを探索する。
このタスクは、エゴセントリックな視覚的観察を用いて、環境に関する事前の知識なしに、対象のセマンティッククラスに属するオブジェクトに到達するための自律ナビゲーションで構成されている。
提案手法は,ミニバル相とテストスタンダード相のHabitat Challenge 2021 ObjectNavで4位に達した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the rise of automation, unmanned vehicles became a hot topic both as
commercial products and as a scientific research topic. It composes a
multi-disciplinary field of robotics that encompasses embedded systems, control
theory, path planning, Simultaneous Localization and Mapping (SLAM), scene
reconstruction, and pattern recognition. In this work, we present our
exploratory research of how sensor data fusion and state-of-the-art machine
learning algorithms can perform the Embodied Artificial Intelligence (E-AI)
task called Visual Semantic Navigation. This task, a.k.a Object-Goal Navigation
(ObjectNav) consists of autonomous navigation using egocentric visual
observations to reach an object belonging to the target semantic class without
prior knowledge of the environment. Our method reached fourth place on the
Habitat Challenge 2021 ObjectNav on the Minival phase and the Test-Standard
Phase.
- Abstract(参考訳): 自動化の台頭とともに、無人車両は商業製品や科学研究のトピックとしてホットな話題となった。
組み込みシステム、制御理論、経路計画、同時ローカライゼーションとマッピング(slam)、シーン再構成、パターン認識を包含する多分野のロボット工学分野を構成する。
本研究では,センサデータ融合と最先端機械学習アルゴリズムが,ビジュアルセマンティックナビゲーション(Visual Semantic Navigation)と呼ばれるEmbodied Artificial Intelligence(E-AI)タスクをどのように実行できるかを探索する。
このタスク、すなわちobject-goal navigation(objectnav)は、エゴセントリックな視覚観察を使用して、環境を事前に知らずにターゲットセマンティクスクラスに属するオブジェクトに到達する自律的なナビゲーションで構成される。
提案手法は,ミニバル相とテストスタンダード相のHabitat Challenge 2021 ObjectNavで4位に達した。
関連論文リスト
- Cognitive Planning for Object Goal Navigation using Generative AI Models [0.979851640406258]
本稿では,効率的な探索戦略を生成するオブジェクトゴールナビゲーション問題を解決するための新しいフレームワークを提案する。
我々のアプローチは,Large Language Models (LLMs) とLarge Vision-Language Models (LVLMs) を活用することで,ロボットが慣れない環境をナビゲートすることを可能にする。
論文 参考訳(メタデータ) (2024-03-30T10:54:59Z) - Interactive Semantic Map Representation for Skill-based Visual Object
Navigation [43.71312386938849]
本稿では,室内環境との相互作用にともなうシーンセマンティックマップの表現について紹介する。
我々はこの表現をSkillTronと呼ばれる本格的なナビゲーション手法に実装した。
提案手法により,ロボット探索の中間目標とオブジェクトナビゲーションの最終目標の両方を形成できる。
論文 参考訳(メタデータ) (2023-11-07T16:30:12Z) - Learning Navigational Visual Representations with Semantic Map
Supervision [85.91625020847358]
エージェントの自我中心のビューとセマンティックマップを対比してナビゲーション固有の視覚表現学習法を提案する。
Ego$2$-Map学習は、オブジェクト、構造、遷移などのコンパクトでリッチな情報を、ナビゲーションのためのエージェントのエゴセントリックな表現に転送する。
論文 参考訳(メタデータ) (2023-07-23T14:01:05Z) - Learning Hierarchical Interactive Multi-Object Search for Mobile
Manipulation [10.21450780640562]
本稿では,ロボットが扉を開けて部屋をナビゲートし,キャビネットや引き出しの中を探索し,対象物を見つける,インタラクティブな多目的探索タスクを提案する。
これらの新たな課題は、探索されていない環境での操作とナビゲーションのスキルを組み合わせる必要がある。
本研究では,探索,ナビゲーション,操作のスキルを習得する階層的強化学習手法であるHIMOSを提案する。
論文 参考訳(メタデータ) (2023-07-12T12:25:33Z) - How To Not Train Your Dragon: Training-free Embodied Object Goal
Navigation with Semantic Frontiers [94.46825166907831]
Embodied AIにおけるオブジェクトゴールナビゲーション問題に対処するためのトレーニング不要のソリューションを提案する。
本手法は,古典的な視覚的同時ローカライゼーションとマッピング(V-SLAM)フレームワークに基づく,構造化されたシーン表現を構築する。
本手法は,言語先行情報とシーン統計に基づいてシーングラフのセマンティクスを伝搬し,幾何学的フロンティアに意味知識を導入する。
論文 参考訳(メタデータ) (2023-05-26T13:38:33Z) - Performance Study of YOLOv5 and Faster R-CNN for Autonomous Navigation
around Non-Cooperative Targets [0.0]
本稿では,カメラと機械学習アルゴリズムを組み合わせることで,相対的なナビゲーションを実現する方法について論じる。
高速領域ベース畳み込みニューラルネットワーク(R-CNN)とYou Only Look Once(YOLOv5)の2つのディープラーニングに基づくオブジェクト検出アルゴリズムの性能を検証した。
本稿では, 特徴認識アルゴリズムの実装と, 宇宙船誘導航法制御システムへの統合に向けての道筋について論じる。
論文 参考訳(メタデータ) (2023-01-22T04:53:38Z) - PONI: Potential Functions for ObjectGoal Navigation with
Interaction-free Learning [125.22462763376993]
対話自由学習(PONI)を用いたオブジェクト指向ナビゲーションの可能性について提案する。
PONIは、物がどこに見えるかというスキルと、どのように(x, y)にナビゲートするかを歪めます。」
論文 参考訳(メタデータ) (2022-01-25T01:07:32Z) - Rapid Exploration for Open-World Navigation with Latent Goal Models [78.45339342966196]
多様なオープンワールド環境における自律的な探索とナビゲーションのためのロボット学習システムについて述べる。
本手法のコアとなるのは、画像の非パラメトリックトポロジカルメモリとともに、距離と行動の学習された潜在変数モデルである。
学習方針を規則化するために情報ボトルネックを使用し、(i)目標のコンパクトな視覚的表現、(ii)一般化能力の向上、(iii)探索のための実行可能な目標をサンプリングするためのメカニズムを提供する。
論文 参考訳(メタデータ) (2021-04-12T23:14:41Z) - SOON: Scenario Oriented Object Navigation with Graph-based Exploration [102.74649829684617]
人間のように3Dエンボディ環境のどこからでも言語ガイドされたターゲットに向かって移動する能力は、インテリジェントロボットの「聖杯」目標の1つです。
ほとんどのビジュアルナビゲーションベンチマークは、ステップバイステップの詳細な命令セットに導かれ、固定された出発点から目標に向かって移動することに焦点を当てている。
このアプローチは、人間だけが物体とその周囲がどのように見えるかを説明する現実世界の問題から逸脱し、ロボットにどこからでも航行を依頼する。
論文 参考訳(メタデータ) (2021-03-31T15:01:04Z) - Object Goal Navigation using Goal-Oriented Semantic Exploration [98.14078233526476]
本研究は,未確認環境における対象カテゴリーのインスタンスにナビゲートするオブジェクトゴールナビゲーションの問題を研究する。
本稿では,表層的なセマンティックマップを構築し,効率的に環境を探索する「ゴール指向セマンティック探索」というモジュールシステムを提案する。
論文 参考訳(メタデータ) (2020-07-01T17:52:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。