論文の概要: Sequence-Agnostic Multi-Object Navigation
- arxiv url: http://arxiv.org/abs/2305.06178v1
- Date: Wed, 10 May 2023 14:03:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-11 12:43:32.800599
- Title: Sequence-Agnostic Multi-Object Navigation
- Title(参考訳): シーケンス非依存多目的ナビゲーション
- Authors: Nandiraju Gireesh, Ayush Agrawal, Ahana Datta, Snehasis Banerjee,
Mohan Sridharan, Brojeshwar Bhowmick, Madhava Krishna
- Abstract要約: マルチオブジェクトナビゲーションタスクは、複数のオブジェクトクラスのインスタンスをローカライズするためにロボットを必要とする。
既存のMultiONのメソッドは、これをオブジェクトナビゲーション(ON)の直接拡張と見なしている。
本稿ではシーケンスに依存しないMultiONのための深層強化学習フレームワークについて述べる。
- 参考スコア(独自算出の注目度): 10.313650923291046
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The Multi-Object Navigation (MultiON) task requires a robot to localize an
instance (each) of multiple object classes. It is a fundamental task for an
assistive robot in a home or a factory. Existing methods for MultiON have
viewed this as a direct extension of Object Navigation (ON), the task of
localising an instance of one object class, and are pre-sequenced, i.e., the
sequence in which the object classes are to be explored is provided in advance.
This is a strong limitation in practical applications characterized by dynamic
changes. This paper describes a deep reinforcement learning framework for
sequence-agnostic MultiON based on an actor-critic architecture and a suitable
reward specification. Our framework leverages past experiences and seeks to
reward progress toward individual as well as multiple target object classes. We
use photo-realistic scenes from the Gibson benchmark dataset in the AI Habitat
3D simulation environment to experimentally show that our method performs
better than a pre-sequenced approach and a state of the art ON method extended
to MultiON.
- Abstract(参考訳): マルチオブジェクトナビゲーション(MultiON)タスクでは、ロボットが複数のオブジェクトクラスのインスタンス(each)をローカライズする必要がある。
家庭や工場における補助ロボットの基本的なタスクである。
既存のmultionのメソッドでは、これはオブジェクトナビゲーション(on)の直接拡張であり、1つのオブジェクトクラスのインスタンスをローカライズするタスクであり、事前シーケンスである。
これは動的変化を特徴とする実用的な応用において強い制限である。
本稿では,アクタークリティカルアーキテクチャと適切な報酬仕様に基づくシーケンス非依存型MultiONのための深層強化学習フレームワークについて述べる。
我々のフレームワークは過去の経験を活用し、複数の対象オブジェクトクラスだけでなく個人に対する進歩に報いる。
ai habitat 3dシミュレーション環境におけるgibsonベンチマークデータセットから得られたフォトリアリスティックなシーンを用いて,本手法が事前シーケンスアプローチやマルチオン拡張手法の最先端技術よりも優れた性能を示す。
関連論文リスト
- DivScene: Benchmarking LVLMs for Object Navigation with Diverse Scenes and Objects [84.73092715537364]
本稿では,多数のシーンタイプにおいて,多様な対象物にナビゲートする新たな課題について検討する。
我々は、模倣学習によりLVLM(Large Vision Language Model)を微調整することにより、エンドツーエンドのエンボディエージェントであるNatVLMを構築した。
我々のエージェントは、GPT-4oを超える成功率を20%以上達成する。
論文 参考訳(メタデータ) (2024-10-03T17:49:28Z) - Kinematic-aware Prompting for Generalizable Articulated Object
Manipulation with LLMs [53.66070434419739]
汎用的なオブジェクト操作は、ホームアシストロボットにとって不可欠である。
本稿では,物体のキネマティックな知識を持つ大規模言語モデルに対して,低レベル動作経路を生成するキネマティック・アウェア・プロンプト・フレームワークを提案する。
我々のフレームワークは8つのカテゴリで従来の手法よりも優れており、8つの未確認対象カテゴリに対して強力なゼロショット能力を示している。
論文 参考訳(メタデータ) (2023-11-06T03:26:41Z) - How To Not Train Your Dragon: Training-free Embodied Object Goal
Navigation with Semantic Frontiers [94.46825166907831]
Embodied AIにおけるオブジェクトゴールナビゲーション問題に対処するためのトレーニング不要のソリューションを提案する。
本手法は,古典的な視覚的同時ローカライゼーションとマッピング(V-SLAM)フレームワークに基づく,構造化されたシーン表現を構築する。
本手法は,言語先行情報とシーン統計に基づいてシーングラフのセマンティクスを伝搬し,幾何学的フロンティアに意味知識を導入する。
論文 参考訳(メタデータ) (2023-05-26T13:38:33Z) - Instruct2Act: Mapping Multi-modality Instructions to Robotic Actions
with Large Language Model [63.66204449776262]
Instruct2Actは、ロボット操作タスクのシーケンシャルアクションにマルチモーダル命令をマッピングするフレームワークである。
我々のアプローチは、様々な命令のモダリティや入力タイプを調節する上で、調整可能で柔軟なものである。
我々のゼロショット法は、いくつかのタスクにおいて、最先端の学習ベースのポリシーよりも優れていた。
論文 参考訳(メタデータ) (2023-05-18T17:59:49Z) - A Simple Baseline for Multi-Camera 3D Object Detection [94.63944826540491]
周囲のカメラで3Dオブジェクトを検出することは、自動運転にとって有望な方向だ。
マルチカメラオブジェクト検出のための簡易ベースラインであるSimMODを提案する。
我々は, nuScenes の3次元オブジェクト検出ベンチマークにおいて, SimMOD の有効性を示す広範囲な実験を行った。
論文 参考訳(メタデータ) (2022-08-22T03:38:01Z) - Lifelong Ensemble Learning based on Multiple Representations for
Few-Shot Object Recognition [6.282068591820947]
本稿では,複数表現に基づく一生涯のアンサンブル学習手法を提案する。
生涯学習を容易にするため、各アプローチは、オブジェクト情報を即座に保存して検索するメモリユニットを備える。
提案手法の有効性を,オフラインおよびオープンエンドシナリオで評価するために,幅広い実験を行った。
論文 参考訳(メタデータ) (2022-05-04T10:29:10Z) - SOS! Self-supervised Learning Over Sets Of Handled Objects In Egocentric
Action Recognition [35.4163266882568]
本稿では,SOS(Self-Supervised Learning Over Sets)を導入し,OIC(ジェネリック・オブジェクト・イン・コンタクト)表現モデルを事前学習する。
OICは複数の最先端ビデオ分類モデルの性能を大幅に向上させる。
論文 参考訳(メタデータ) (2022-04-10T23:27:19Z) - Supervised Training of Dense Object Nets using Optimal Descriptors for
Industrial Robotic Applications [57.87136703404356]
Florence、Manuelli、TedrakeによるDense Object Nets(DON)は、ロボットコミュニティのための新しいビジュアルオブジェクト表現として高密度オブジェクト記述子を導入した。
本稿では, 物体の3次元モデルを考えると, 記述子空間画像を生成することができ, DON の教師付きトレーニングが可能であることを示す。
産業用物体の6次元グリップ生成のためのトレーニング手法を比較し,新しい教師付きトレーニング手法により,産業関連タスクのピック・アンド・プレイス性能が向上することを示す。
論文 参考訳(メタデータ) (2021-02-16T11:40:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。