論文の概要: TartanGround: A Large-Scale Dataset for Ground Robot Perception and Navigation
- arxiv url: http://arxiv.org/abs/2505.10696v1
- Date: Thu, 15 May 2025 20:35:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-19 14:36:13.567362
- Title: TartanGround: A Large-Scale Dataset for Ground Robot Perception and Navigation
- Title(参考訳): TartanGround:地上ロボットの知覚とナビゲーションのための大規模データセット
- Authors: Manthan Patel, Fan Yang, Yuheng Qiu, Cesar Cadena, Sebastian Scherer, Marco Hutter, Wenshan Wang,
- Abstract要約: TartanGroundは、地上ロボットの認識と自律性を向上する大規模なマルチモーダルデータセットである。
我々は70の環境にまたがって910の軌道を集め、150万のサンプルを得た。
TartanGroundは、幅広い学習ベースのタスクのトレーニングと評価のためのテストベッドとして機能する。
- 参考スコア(独自算出の注目度): 19.488886693695946
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We present TartanGround, a large-scale, multi-modal dataset to advance the perception and autonomy of ground robots operating in diverse environments. This dataset, collected in various photorealistic simulation environments includes multiple RGB stereo cameras for 360-degree coverage, along with depth, optical flow, stereo disparity, LiDAR point clouds, ground truth poses, semantic segmented images, and occupancy maps with semantic labels. Data is collected using an integrated automatic pipeline, which generates trajectories mimicking the motion patterns of various ground robot platforms, including wheeled and legged robots. We collect 910 trajectories across 70 environments, resulting in 1.5 million samples. Evaluations on occupancy prediction and SLAM tasks reveal that state-of-the-art methods trained on existing datasets struggle to generalize across diverse scenes. TartanGround can serve as a testbed for training and evaluation of a broad range of learning-based tasks, including occupancy prediction, SLAM, neural scene representation, perception-based navigation, and more, enabling advancements in robotic perception and autonomy towards achieving robust models generalizable to more diverse scenarios. The dataset and codebase for data collection will be made publicly available upon acceptance. Webpage: https://tartanair.org/tartanground
- Abstract(参考訳): 多様な環境で動作している地上ロボットの認識と自律性を向上するために,大規模なマルチモーダルデータセットであるTartanGroundを提案する。
様々なフォトリアリスティック・シミュレーション環境で収集されたデータセットには、深度、光学的流れ、ステレオディファリティ、LiDARポイント・クラウド、地上の真実のポーズ、セマンティック・セグメンテーション・イメージ、セマンティック・ラベル付き占有地図などとともに、360度をカバーする複数のRGBステレオカメラが含まれる。
データは統合された自動パイプラインを使用して収集され、車輪付きロボットや脚付きロボットなど、さまざまな地上ロボットプラットフォームの動作パターンを模倣した軌道を生成する。
我々は70の環境にまたがって910の軌道を集め、150万のサンプルを得た。
占有率予測とSLAMタスクの評価は、既存のデータセットでトレーニングされた最先端の手法が、さまざまな場面で一般化するのに苦労していることを示している。
TartanGroundは、占有率予測、SLAM、ニューラルシーン表現、知覚に基づくナビゲーションなど、幅広い学習ベースのタスクのトレーニングと評価のためのテストベッドとして機能し、より多様なシナリオに一般化可能な堅牢なモデルの実現に向けたロボット知覚と自律性の実現を可能にする。
データ収集のためのデータセットとコードベースは、受理時に公開される。
Webページ: https://tartanair.org/tartanground
関連論文リスト
- VBR: A Vision Benchmark in Rome [1.71787484850503]
本稿では,RGBデータ,3次元点雲,IMU,GPSデータを含む,ローマで収集された視覚・知覚研究データセットについて述べる。
我々は、自律ロボット工学とコンピュータビジョンの研究を進めるために、視覚計測とSLAMをターゲットにした新しいベンチマークを導入する。
論文 参考訳(メタデータ) (2024-04-17T12:34:49Z) - MEM: Multi-Modal Elevation Mapping for Robotics and Learning [10.476978089902818]
我々は、複数の情報源からのマルチモーダル情報を一般的な地図表現に融合させることにより、2.5Dロボット中心の標高マッピングフレームワークを拡張した。
我々のシステムはGPU上で動くように設計されており、様々なロボットや学習タスクをリアルタイムに行うことができる。
論文 参考訳(メタデータ) (2023-09-28T19:55:29Z) - HabitatDyn Dataset: Dynamic Object Detection to Kinematics Estimation [16.36110033895749]
本稿では,合成RGBビデオ,セマンティックラベル,深度情報,および運動情報を含むデータセットHabitatDynを提案する。
HabitatDynは移動カメラを搭載した移動ロボットの視点で作られ、6種類の移動物体をさまざまな速度で撮影する30のシーンを含んでいる。
論文 参考訳(メタデータ) (2023-04-21T09:57:35Z) - On the Application of Efficient Neural Mapping to Real-Time Indoor
Localisation for Unmanned Ground Vehicles [5.137284292672375]
組込みプラットフォーム上でのリアルタイム推論が可能なコンパクトモデルを用いて,数cmの局所化精度を実現する。
トレーニングされたモデルをUGVプラットフォームにデプロイし、その効果をウェイポイントナビゲーションタスクで実証する。
論文 参考訳(メタデータ) (2022-11-09T07:23:28Z) - GNM: A General Navigation Model to Drive Any Robot [67.40225397212717]
視覚に基づくナビゲーションのための一般的な目標条件付きモデルは、多くの異なるが構造的に類似したロボットから得られたデータに基づいて訓練することができる。
ロボット間の効率的なデータ共有に必要な設計決定について分析する。
我々は、訓練されたGNMを、下四極子を含む様々な新しいロボットに展開する。
論文 参考訳(メタデータ) (2022-10-07T07:26:41Z) - MetaGraspNet: A Large-Scale Benchmark Dataset for Vision-driven Robotic
Grasping via Physics-based Metaverse Synthesis [78.26022688167133]
本稿では,物理に基づくメタバース合成による視覚駆動型ロボットグルーピングのための大規模ベンチマークデータセットを提案する。
提案するデータセットには,10万の画像と25種類のオブジェクトが含まれている。
また,オブジェクト検出とセグメンテーション性能を評価するためのデータセットとともに,新しいレイアウト重み付け性能指標を提案する。
論文 参考訳(メタデータ) (2021-12-29T17:23:24Z) - Rapid Exploration for Open-World Navigation with Latent Goal Models [78.45339342966196]
多様なオープンワールド環境における自律的な探索とナビゲーションのためのロボット学習システムについて述べる。
本手法のコアとなるのは、画像の非パラメトリックトポロジカルメモリとともに、距離と行動の学習された潜在変数モデルである。
学習方針を規則化するために情報ボトルネックを使用し、(i)目標のコンパクトな視覚的表現、(ii)一般化能力の向上、(iii)探索のための実行可能な目標をサンプリングするためのメカニズムを提供する。
論文 参考訳(メタデータ) (2021-04-12T23:14:41Z) - Footprints and Free Space from a Single Color Image [32.57664001590537]
入力として1つのRGB画像が与えられた場合、可視面と隠蔽面の両方の形状を予測するモデルを導入する。
ステレオビデオシーケンスから、カメラポーズ、フレームごとの深さ、セマンティックセグメンテーションを用いて学習し、トレーニングデータを形成する。
トレーニングシーンの空間的カバレッジには驚くほど低いバーが必要であることが分かりました。
論文 参考訳(メタデータ) (2020-04-14T09:29:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。