論文の概要: PONI: Potential Functions for ObjectGoal Navigation with
Interaction-free Learning
- arxiv url: http://arxiv.org/abs/2201.10029v1
- Date: Tue, 25 Jan 2022 01:07:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-27 07:40:08.266438
- Title: PONI: Potential Functions for ObjectGoal Navigation with
Interaction-free Learning
- Title(参考訳): PONI:対話自由学習によるオブジェクト指向ナビゲーションの可能性
- Authors: Santhosh Kumar Ramakrishnan, Devendra Singh Chaplot, Ziad Al-Halah,
Jitendra Malik, Kristen Grauman
- Abstract要約: 対話自由学習(PONI)を用いたオブジェクト指向ナビゲーションの可能性について提案する。
PONIは、物がどこに見えるかというスキルと、どのように(x, y)にナビゲートするかを歪めます。」
- 参考スコア(独自算出の注目度): 125.22462763376993
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: State-of-the-art approaches to ObjectGoal navigation rely on reinforcement
learning and typically require significant computational resources and time for
learning. We propose Potential functions for ObjectGoal Navigation with
Interaction-free learning (PONI), a modular approach that disentangles the
skills of `where to look?' for an object and `how to navigate to (x, y)?'. Our
key insight is that `where to look?' can be treated purely as a perception
problem, and learned without environment interactions. To address this, we
propose a network that predicts two complementary potential functions
conditioned on a semantic map and uses them to decide where to look for an
unseen object. We train the potential function network using supervised
learning on a passive dataset of top-down semantic maps, and integrate it into
a modular framework to perform ObjectGoal navigation. Experiments on Gibson and
Matterport3D demonstrate that our method achieves the state-of-the-art for
ObjectGoal navigation while incurring up to 1,600x less computational cost for
training.
- Abstract(参考訳): objectgoal navigationに対する最先端のアプローチは強化学習に依存しており、学習には重要な計算リソースと時間を必要とする。
本研究では,対象物に対する「見る場所」と「(x, y)?」へのナビゲートのスキルを区別するモジュラーアプローチである「対話フリー学習(poni)」を用いた対象物ナビゲーションの潜在的な機能を提案する。
私たちの重要な洞察は、"見るべき場所"は知覚問題として純粋に扱われ、環境の相互作用なしに学習できるということです。
そこで本研究では,セマンティックマップ上で条件付き2つの補足的ポテンシャル関数を予測し,それらを用いて未知のオブジェクトを探す場所を決定するネットワークを提案する。
我々は,トップダウンセマンティクスマップの受動的データセット上で教師あり学習を用いて潜在的な関数ネットワークを訓練し,それをモジュラーフレームワークに統合してオブジェクトのナビゲーションを行う。
GibsonとMatterport3Dの実験では,本手法がObjectGoalナビゲーションの最先端化を実現し,最大1,600倍のコストでトレーニングを行うことができた。
関連論文リスト
- VANP: Learning Where to See for Navigation with Self-Supervised Vision-Action Pre-Training [8.479135285935113]
人間は、ナビゲーションに関連する特定の視覚領域に焦点を当てることで、衝突することなく、群衆を効率的にナビゲートする。
ほとんどのロボットビジュアルナビゲーション手法は、視覚タスクで事前訓練されたディープラーニングモデルに依存しており、これは有能な物体を優先する。
視覚ナビゲーション事前訓練(VANP)のためのセルフ・スーパービジョン・ビジョン・アクション・モデルを提案する。
論文 参考訳(メタデータ) (2024-03-12T22:33:08Z) - Interactive Semantic Map Representation for Skill-based Visual Object
Navigation [43.71312386938849]
本稿では,室内環境との相互作用にともなうシーンセマンティックマップの表現について紹介する。
我々はこの表現をSkillTronと呼ばれる本格的なナビゲーション手法に実装した。
提案手法により,ロボット探索の中間目標とオブジェクトナビゲーションの最終目標の両方を形成できる。
論文 参考訳(メタデータ) (2023-11-07T16:30:12Z) - Object Goal Navigation with Recursive Implicit Maps [92.6347010295396]
対象目標ナビゲーションのための暗黙的な空間マップを提案する。
提案手法は, 挑戦的なMP3Dデータセット上での技量を著しく上回る。
我々は、実際のロボットにモデルをデプロイし、実際のシーンでオブジェクトゴールナビゲーションの結果を奨励する。
論文 参考訳(メタデータ) (2023-08-10T14:21:33Z) - Learning Navigational Visual Representations with Semantic Map
Supervision [85.91625020847358]
エージェントの自我中心のビューとセマンティックマップを対比してナビゲーション固有の視覚表現学習法を提案する。
Ego$2$-Map学習は、オブジェクト、構造、遷移などのコンパクトでリッチな情報を、ナビゲーションのためのエージェントのエゴセントリックな表現に転送する。
論文 参考訳(メタデータ) (2023-07-23T14:01:05Z) - How To Not Train Your Dragon: Training-free Embodied Object Goal
Navigation with Semantic Frontiers [94.46825166907831]
Embodied AIにおけるオブジェクトゴールナビゲーション問題に対処するためのトレーニング不要のソリューションを提案する。
本手法は,古典的な視覚的同時ローカライゼーションとマッピング(V-SLAM)フレームワークに基づく,構造化されたシーン表現を構築する。
本手法は,言語先行情報とシーン統計に基づいてシーングラフのセマンティクスを伝搬し,幾何学的フロンティアに意味知識を導入する。
論文 参考訳(メタデータ) (2023-05-26T13:38:33Z) - PEANUT: Predicting and Navigating to Unseen Targets [18.87376347895365]
新しい環境における効率的なObjectGoalナビゲーション(ObjectNav)は、環境レイアウトにおける空間的および意味的規則性を理解する必要がある。
不完全なセマンティックマップから観測対象の位置を予測し,これらの規則性を学習する手法を提案する。
我々の予測モデルは軽量であり、比較的少量の受動的収集データを用いて教師付きで訓練することができる。
論文 参考訳(メタデータ) (2022-12-05T18:58:58Z) - Navigating to Objects in the Real World [76.1517654037993]
本稿では,古典的,モジュール的,エンド・ツー・エンドの学習手法と比較した,意味的視覚ナビゲーション手法に関する大規模な実証的研究について述べる。
モジュラー学習は実世界ではうまく機能し、90%の成功率に達しています。
対照的に、エンド・ツー・エンドの学習は、シミュレーションと現実の間の画像領域の差が大きいため、77%のシミュレーションから23%の実際の成功率へと低下する。
論文 参考訳(メタデータ) (2022-12-02T01:10:47Z) - Object Goal Navigation using Goal-Oriented Semantic Exploration [98.14078233526476]
本研究は,未確認環境における対象カテゴリーのインスタンスにナビゲートするオブジェクトゴールナビゲーションの問題を研究する。
本稿では,表層的なセマンティックマップを構築し,効率的に環境を探索する「ゴール指向セマンティック探索」というモジュールシステムを提案する。
論文 参考訳(メタデータ) (2020-07-01T17:52:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。