論文の概要: Learning to Drive Anywhere with Model-Based Reannotation11
- arxiv url: http://arxiv.org/abs/2505.05592v1
- Date: Thu, 08 May 2025 18:43:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-12 20:40:10.050874
- Title: Learning to Drive Anywhere with Model-Based Reannotation11
- Title(参考訳): モデルベースのReannotation11で任意の場所を走らせることを学ぶ
- Authors: Noriaki Hirose, Lydia Ignatova, Kyle Stachowicz, Catherine Glossop, Sergey Levine, Dhruv Shah,
- Abstract要約: ロボットの視覚ナビゲーションポリシーを一般化するためのフレームワークを開発する。
クラウドソースの遠隔操作データや、ラベルなしのYouTubeビデオなど、受動的に収集されたデータを活用します。
このデータはLogoNavに蒸留される。LogoNavは、視覚的目標やGPSのウェイポイントに照準を合わせられた長い水平航法ポリシーだ。
- 参考スコア(独自算出の注目度): 49.80796496905606
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Developing broadly generalizable visual navigation policies for robots is a significant challenge, primarily constrained by the availability of large-scale, diverse training data. While curated datasets collected by researchers offer high quality, their limited size restricts policy generalization. To overcome this, we explore leveraging abundant, passively collected data sources, including large volumes of crowd-sourced teleoperation data and unlabeled YouTube videos, despite their potential for lower quality or missing action labels. We propose Model-Based ReAnnotation (MBRA), a framework that utilizes a learned short-horizon, model-based expert model to relabel or generate high-quality actions for these passive datasets. This relabeled data is then distilled into LogoNav, a long-horizon navigation policy conditioned on visual goals or GPS waypoints. We demonstrate that LogoNav, trained using MBRA-processed data, achieves state-of-the-art performance, enabling robust navigation over distances exceeding 300 meters in previously unseen indoor and outdoor environments. Our extensive real-world evaluations, conducted across a fleet of robots (including quadrupeds) in six cities on three continents, validate the policy's ability to generalize and navigate effectively even amidst pedestrians in crowded settings.
- Abstract(参考訳): ロボットのための広範に一般化可能なビジュアルナビゲーションポリシーを開発することは、大きな課題であり、主に大規模で多様なトレーニングデータの提供に制約されている。
研究者が収集したキュレートデータセットは高品質であるが、その制限されたサイズはポリシーの一般化を制限する。
これを解決するために、大量のクラウドソースの遠隔操作データや未ラベルのYouTubeビデオを含む、受動的に収集された豊富なデータソースを活用することを検討する。
モデルベースアノテーション(MBRA, Model-Based Re Annotation)は,学習した短距離モデルを用いたモデルベースエキスパートモデルを用いて,これらの受動的データセットに対して高品質なアクションをレラベリングまたは生成するフレームワークである。
このデータはLogoNavに蒸留される。LogoNavは、視覚的目標やGPSのウェイポイントに照準を合わせられた長い水平航法ポリシーだ。
MBRA処理データを用いてトレーニングしたLogoNavは、最先端のパフォーマンスを実現し、これまで見られなかった屋内および屋外環境において、300メートルを超える距離での堅牢なナビゲーションを可能にすることを実証した。
3つの大陸にある6つの都市で、ロボット群(四足動物を含む)の群れにまたがって実施された、我々の大規模な実世界評価は、混雑した環境で歩行者でさえ効果的に一般化し、ナビゲートできる政策の能力を検証した。
関連論文リスト
- CREStE: Scalable Mapless Navigation with Internet Scale Priors and Counterfactual Guidance [13.922655150502365]
CREStEは完全なマップレスナビゲーション問題に対処するための表現と報酬を学ぶ。
我々はCREStEを6つの異なる都市環境におけるキロメートル規模のナビゲーションタスクで評価した。
論文 参考訳(メタデータ) (2025-03-05T21:42:46Z) - CityWalker: Learning Embodied Urban Navigation from Web-Scale Videos [11.912608309403359]
我々は,人間のような都市ナビゲーションのためのスケーラブルでデータ駆動型アプローチを提案する。
われわれは何千時間もの間、何千時間もの街を歩きながらウェブから動画を流すエージェントを訓練している。
我々のモデルは、多様な課題や重要なシナリオを扱うために洗練されたナビゲーションポリシーを学びます。
論文 参考訳(メタデータ) (2024-11-26T19:02:20Z) - Scaling Data Generation in Vision-and-Language Navigation [116.95534559103788]
本稿では,学習のための大規模データ生成に有効なパラダイムを提案する。
我々は、HM3DとGibsonのデータセットから1200以上のフォトリアリスティック環境を適用し、490万の命令軌道対を合成する。
我々の大規模データセットのおかげで、既存のエージェントの性能は(以前のSoTAでは+11%絶対)、単純な模倣学習によってR2Rテストの分割で80%の単ラン成功率で大幅に向上できる。
論文 参考訳(メタデータ) (2023-07-28T16:03:28Z) - GNM: A General Navigation Model to Drive Any Robot [67.40225397212717]
視覚に基づくナビゲーションのための一般的な目標条件付きモデルは、多くの異なるが構造的に類似したロボットから得られたデータに基づいて訓練することができる。
ロボット間の効率的なデータ共有に必要な設計決定について分析する。
我々は、訓練されたGNMを、下四極子を含む様々な新しいロボットに展開する。
論文 参考訳(メタデータ) (2022-10-07T07:26:41Z) - Occupancy Anticipation for Efficient Exploration and Navigation [97.17517060585875]
そこで我々は,エージェントが自我中心のRGB-D観測を用いて,その占有状態を可視領域を超えて推定する,占有予測を提案する。
エゴセントリックなビューとトップダウンマップの両方でコンテキストを活用することで、私たちのモデルは環境のより広いマップを予測できます。
われわれのアプローチは、2020 Habitat PointNav Challengeの優勝だ。
論文 参考訳(メタデータ) (2020-08-21T03:16:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。