論文の概要: Object Goal Navigation with End-to-End Self-Supervision
- arxiv url: http://arxiv.org/abs/2212.05923v1
- Date: Fri, 9 Dec 2022 03:41:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-13 18:15:02.090358
- Title: Object Goal Navigation with End-to-End Self-Supervision
- Title(参考訳): エンドツーエンドセルフスーパービジョンによるオブジェクトゴールナビゲーション
- Authors: So Yeon Min, Yao-Hung Hubert Tsai, Wei Ding, Ali Farhadi, Ruslan
Salakhutdinov, Yonatan Bisk, Jian Zhang
- Abstract要約: 家庭のロボットは、ユーザがまず自分の家にあるものすべてに注釈を付けることなく、ターゲットの場所へ移動できなければならない。
このオブジェクトナビゲーション課題に対する現在のアプローチは、実際のロボットをテストせず、高価なセマンティックラベル付き3Dメッシュに依存している。
本研究では, エンド・ツー・エンドの自己監督型エンボディエージェントを提案する。
- 参考スコア(独自算出の注目度): 110.6053241629366
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A household robot should be able to navigate to target locations without
requiring users to first annotate everything in their home. Current approaches
to this object navigation challenge do not test on real robots and rely on
expensive semantically labeled 3D meshes. In this work, our aim is an agent
that builds self-supervised models of the world via exploration, the same as a
child might. We propose an end-to-end self-supervised embodied agent that
leverages exploration to train a semantic segmentation model of 3D objects, and
uses those representations to learn an object navigation policy purely from
self-labeled 3D meshes. The key insight is that embodied agents can leverage
location consistency as a supervision signal - collecting images from different
views/angles and applying contrastive learning to fine-tune a semantic
segmentation model. In our experiments, we observe that our framework performs
better than other self-supervised baselines and competitively with supervised
baselines, in both simulation and when deployed in real houses.
- Abstract(参考訳): 家庭のロボットは、ユーザがまず自分の家にあるものすべてに注釈を付けることなく、ターゲットの場所にナビゲートできる。
このオブジェクトナビゲーション課題に対する現在のアプローチは、実際のロボットをテストせず、高価なセマンティックラベル付き3Dメッシュに依存している。
本研究の目的は, 子どもと同じように, 探索を通して, 世界の自己監督モデルを構築するエージェントである。
本稿では,3次元オブジェクトのセマンティックセグメンテーションモデルを学習するために探索を活用し,その表現を用いて,自己ラベル付き3次元メッシュから純粋にオブジェクトナビゲーションポリシーを学習する,エンドツーエンドの自己管理型エボダイドエージェントを提案する。
重要な洞察は、エンボディエージェントが位置一貫性を監視信号として活用し、異なるビュー/アングルから画像を収集し、コントラスト学習を適用してセマンティックセグメンテーションモデルを微調整する。
実験では,我々のフレームワークは他の自制ベースラインよりも優れた性能を示し,シミュレーションと実家への展開の両方において,教師付きベースラインと競合する。
関連論文リスト
- Towards self-attention based visual navigation in the real world [0.0]
視覚誘導ナビゲーションでは、タスク指向の意思決定を知らせるために複雑な視覚情報を処理する必要がある。
シミュレーションで訓練された深層強化学習エージェントは、現実世界に配備された時に満足のいく結果を示すことが多い。
これは、4000以下のパラメータを使って3Dアクション空間をナビゲートする訓練に成功した、自己注意型エージェントの最初のデモンストレーションである。
論文 参考訳(メタデータ) (2022-09-15T04:51:42Z) - Object Manipulation via Visual Target Localization [64.05939029132394]
オブジェクトを操作するための訓練エージェントは、多くの課題を提起します。
本研究では,対象物体を探索する環境を探索し,位置が特定されると3次元座標を計算し,対象物が見えない場合でも3次元位置を推定する手法を提案する。
評価の結果,同じ感覚スイートにアクセス可能なモデルに比べて,成功率が3倍に向上したことが示された。
論文 参考訳(メタデータ) (2022-03-15T17:59:01Z) - SEAL: Self-supervised Embodied Active Learning using Exploration and 3D
Consistency [122.18108118190334]
本稿では,SEAL(Self-Embodied Embodied Active Learning)というフレームワークを提案する。
インターネットイメージ上で訓練された知覚モデルを使用して、積極的な探索ポリシーを学ぶ。
我々は3Dセマンティックマップを用いて、行動と知覚の両方を、完全に自己管理された方法で学習する。
論文 参考訳(メタデータ) (2021-12-02T06:26:38Z) - SOON: Scenario Oriented Object Navigation with Graph-based Exploration [102.74649829684617]
人間のように3Dエンボディ環境のどこからでも言語ガイドされたターゲットに向かって移動する能力は、インテリジェントロボットの「聖杯」目標の1つです。
ほとんどのビジュアルナビゲーションベンチマークは、ステップバイステップの詳細な命令セットに導かれ、固定された出発点から目標に向かって移動することに焦点を当てている。
このアプローチは、人間だけが物体とその周囲がどのように見えるかを説明する現実世界の問題から逸脱し、ロボットにどこからでも航行を依頼する。
論文 参考訳(メタデータ) (2021-03-31T15:01:04Z) - "What's This?" -- Learning to Segment Unknown Objects from Manipulation
Sequences [27.915309216800125]
本稿では,ロボットマニピュレータを用いた自己教師型把握対象セグメンテーションのための新しいフレームワークを提案する。
本稿では,モーションキューとセマンティック知識を共同で組み込んだ,エンドツーエンドのトレーニング可能な単一アーキテクチャを提案する。
我々の手法は、運動ロボットや3Dオブジェクトモデルの視覚的登録にも、正確な手眼の校正や追加センサーデータにも依存しない。
論文 参考訳(メタデータ) (2020-11-06T10:55:28Z) - Hindsight for Foresight: Unsupervised Structured Dynamics Models from
Physical Interaction [24.72947291987545]
エージェントが世界と対話することを学ぶための鍵となる課題は、オブジェクトの物理的性質を推論することである。
本研究では,ラベルのない3次元点群と画像から直接,ロボットのインタラクションのダイナミクスをモデル化するための新しいアプローチを提案する。
論文 参考訳(メタデータ) (2020-08-02T11:04:49Z) - Object Goal Navigation using Goal-Oriented Semantic Exploration [98.14078233526476]
本研究は,未確認環境における対象カテゴリーのインスタンスにナビゲートするオブジェクトゴールナビゲーションの問題を研究する。
本稿では,表層的なセマンティックマップを構築し,効率的に環境を探索する「ゴール指向セマンティック探索」というモジュールシステムを提案する。
論文 参考訳(メタデータ) (2020-07-01T17:52:32Z) - Improving Target-driven Visual Navigation with Attention on 3D Spatial
Relationships [52.72020203771489]
3次元屋内シーンにおける深部強化学習(DRL)を用いた目標駆動型視覚ナビゲーションについて検討した。
提案手法は視覚特徴と3次元空間表現を組み合わせてナビゲーションポリシーを学習する。
AI2-THORで実施した我々の実験は、SRとSPLの指標において、モデルがベースラインを上回っていることを示している。
論文 参考訳(メタデータ) (2020-04-29T08:46:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。