論文の概要: Data Scaling for Navigation in Unknown Environments
- arxiv url: http://arxiv.org/abs/2601.09444v1
- Date: Wed, 14 Jan 2026 12:44:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-23 08:17:40.780046
- Title: Data Scaling for Navigation in Unknown Environments
- Title(参考訳): 未知環境におけるナビゲーションのためのデータスケーリング
- Authors: Lauri Suomela, Naoki Takahata, Sasanka Kuruppu Arachchige, Harry Edelman, Joni-Kristian Kämäräinen,
- Abstract要約: 模擬学習によるナビゲーションポリシーをトレーニングで見えない環境に一般化することは、依然として大きな課題である。
データ量とデータの多様性が、エンド・ツー・エンドの地図のないビジュアルナビゲーションにおける現実世界の一般化にどのように影響するかを、我々は初めて大規模に研究した。
- 参考スコア(独自算出の注目度): 5.877363757610773
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generalization of imitation-learned navigation policies to environments unseen in training remains a major challenge. We address this by conducting the first large-scale study of how data quantity and data diversity affect real-world generalization in end-to-end, map-free visual navigation. Using a curated 4,565-hour crowd-sourced dataset collected across 161 locations in 35 countries, we train policies for point goal navigation and evaluate their closed-loop control performance on sidewalk robots operating in four countries, covering 125 km of autonomous driving. Our results show that large-scale training data enables zero-shot navigation in unknown environments, approaching the performance of policies trained with environment-specific demonstrations. Critically, we find that data diversity is far more important than data quantity. Doubling the number of geographical locations in a training set decreases navigation errors by ~15%, while performance benefit from adding data from existing locations saturates with very little data. We also observe that, with noisy crowd-sourced data, simple regression-based models outperform generative and sequence-based architectures. We release our policies, evaluation setup and example videos on the project page.
- Abstract(参考訳): 模擬学習によるナビゲーションポリシーをトレーニングで見えない環境に一般化することは、依然として大きな課題である。
データ量とデータの多様性が、エンド・ツー・エンドの地図のないビジュアルナビゲーションにおける現実の一般化にどのように影響するかを、初めて大規模に研究することによって、この問題に対処する。
本研究では,35ヶ国161カ所で収集された4,565時間のクラウドソーシングデータセットを用いて,ポイントゴールナビゲーションのポリシーをトレーニングし,125kmの自動運転をカバーした4ヶ国で動作している歩道ロボットのクローズループ制御性能を評価した。
その結果,大規模トレーニングデータによって未知環境におけるゼロショットナビゲーションが実現され,環境固有の実演で訓練されたポリシーの性能が向上することが示唆された。
批判的に言えば、データの多様性はデータ量よりもはるかに重要である。
トレーニングセット内の地理的位置の数を倍にすると、ナビゲーションエラーが~15%減少する一方、既存のロケーションからのデータを追加することでパフォーマンス上のメリットは、非常に少ないデータで飽和する。
また、ノイズの多いクラウドソースデータにより、単純な回帰ベースのモデルは、生成的およびシーケンスベースのアーキテクチャよりも優れています。
ポリシー、評価設定、サンプルビデオはプロジェクトページで公開しています。
関連論文リスト
- LookOut: Real-World Humanoid Egocentric Navigation [61.14016011125957]
本稿では,エゴセントリックな映像から将来の6Dヘッドポーズの列を予測するという課題を紹介する。
この課題を解決するために,時間的に集約された3次元潜伏特徴を考慮に入れた枠組みを提案する。
この分野のトレーニングデータが不足していることから,このアプローチを通じて収集されたデータセットを提示する。
論文 参考訳(メタデータ) (2025-08-20T06:43:36Z) - Learning to Drive Anywhere with Model-Based Reannotation [49.80796496905606]
ロボットの視覚ナビゲーションポリシーを一般化するためのフレームワークを開発する。
クラウドソースの遠隔操作データや、ラベルなしのYouTubeビデオなど、受動的に収集されたデータを活用します。
このデータはLogoNavに蒸留される。LogoNavは、視覚的目標やGPSのウェイポイントに照準を合わせられた長い水平航法ポリシーだ。
論文 参考訳(メタデータ) (2025-05-08T18:43:39Z) - CityWalker: Learning Embodied Urban Navigation from Web-Scale Videos [11.912608309403359]
我々は,人間のような都市ナビゲーションのためのスケーラブルでデータ駆動型アプローチを提案する。
われわれは何千時間もの間、何千時間もの街を歩きながらウェブから動画を流すエージェントを訓練している。
我々のモデルは、多様な課題や重要なシナリオを扱うために洗練されたナビゲーションポリシーを学びます。
論文 参考訳(メタデータ) (2024-11-26T19:02:20Z) - Scaling Data Generation in Vision-and-Language Navigation [116.95534559103788]
本稿では,学習のための大規模データ生成に有効なパラダイムを提案する。
我々は、HM3DとGibsonのデータセットから1200以上のフォトリアリスティック環境を適用し、490万の命令軌道対を合成する。
我々の大規模データセットのおかげで、既存のエージェントの性能は(以前のSoTAでは+11%絶対)、単純な模倣学習によってR2Rテストの分割で80%の単ラン成功率で大幅に向上できる。
論文 参考訳(メタデータ) (2023-07-28T16:03:28Z) - LargeST: A Benchmark Dataset for Large-Scale Traffic Forecasting [65.71129509623587]
道路交通予測はスマートシティのイニシアチブにおいて重要な役割を担い、ディープラーニングの力によって大きな進歩を遂げている。
しかし、現在の公開データセットで達成される有望な結果は、現実的なシナリオには適用できないかもしれない。
カリフォルニアで合計8,600のセンサーと5年間の時間カバレッジを含む、LargeSTベンチマークデータセットを紹介します。
論文 参考訳(メタデータ) (2023-06-14T05:48:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。