論文の概要: S3E: A Large-scale Multimodal Dataset for Collaborative SLAM
- arxiv url: http://arxiv.org/abs/2210.13723v4
- Date: Sat, 16 Sep 2023 05:37:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-20 01:21:17.140737
- Title: S3E: A Large-scale Multimodal Dataset for Collaborative SLAM
- Title(参考訳): S3E:コラボレーションSLAMのための大規模マルチモーダルデータセット
- Authors: Dapeng Feng, Yuhua Qi, Shipeng Zhong, Zhiqiang Chen, Yudu Jiao, Qiming
Chen, Tao Jiang, Hongbo Chen
- Abstract要約: 本研究では,無人地上車両群が収集した大規模マルチモーダルデータセットであるS3Eを提案する。
S3Eは、7つの屋外シーケンスと5つの屋内シーケンスで構成されており、200秒毎に、時間的同期と空間的校正された高周波数IMU、高品質ステレオカメラ、360度LiDARデータで構成されている。
重要なことは、データセットのサイズ、シーンの可変性、複雑さに関するこれまでの試みを超えています。
- 参考スコア(独自算出の注目度): 7.9003392680427345
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the advanced request to employ a team of robots to perform a task
collaboratively, the research community has become increasingly interested in
collaborative simultaneous localization and mapping. Unfortunately, existing
datasets are limited in the scale and variation of the collaborative
trajectories, even though generalization between inter-trajectories among
different agents is crucial to the overall viability of collaborative tasks. To
help align the research community's contributions with realistic multiagent
ordinated SLAM problems, we propose S3E, a large-scale multimodal dataset
captured by a fleet of unmanned ground vehicles along four designed
collaborative trajectory paradigms. S3E consists of 7 outdoor and 5 indoor
sequences that each exceed 200 seconds, consisting of well temporal
synchronized and spatial calibrated high-frequency IMU, high-quality stereo
camera, and 360 degree LiDAR data. Crucially, our effort exceeds previous
attempts regarding dataset size, scene variability, and complexity. It has 4x
as much average recording time as the pioneering EuRoC dataset. We also provide
careful dataset analysis as well as baselines for collaborative SLAM and single
counterparts. Data and more up-to-date details are found at
https://github.com/PengYu-Team/S3E.
- Abstract(参考訳): タスクを協調的に実行するロボットチームを採用するという高度な要求により、研究コミュニティは協調的なローカライゼーションとマッピングにますます関心を寄せている。
残念なことに、既存のデータセットは、異なるエージェント間のトラジェクタ間の一般化がコラボレーションタスクの全体的な実行可能性に不可欠であるにもかかわらず、協調的トラジェクタの規模とバリエーションに制限がある。
現実的なマルチエージェント・オーダライテッドSLAM問題に対する研究コミュニティのコントリビューションの整合を支援するため、S3Eは、無人地上車両群が4つの設計された協調軌道パラダイムに沿って捉えた大規模マルチモーダルデータセットである。
S3Eは、7つの屋外シーケンスと5つの屋内シーケンスで構成され、それぞれ200秒を超える。
重要なことは、データセットのサイズ、シーンの可変性、複雑さに関するこれまでの試みを超えています。
EuRoCデータセットのパイオニアであるEuRoCの4倍の平均記録時間を持つ。
また、注意深いデータセット分析や、コラボレーションSLAMと単一データセットのベースラインも提供しています。
データと最新の詳細はhttps://github.com/PengYu-Team/S3E.comで確認できる。
関連論文リスト
- MTMMC: A Large-Scale Real-World Multi-Modal Camera Tracking Benchmark [63.878793340338035]
マルチターゲットマルチカメラトラッキングは、複数のカメラからのビデオストリームを使用して個人を特定し、追跡する重要なタスクである。
このタスクの既存のデータセットは、制御されたカメラネットワーク設定内で合成または人工的に構築される。
我々は16台のマルチモーダルカメラで2つの異なる環境でキャプチャされた長いビデオシーケンスを含む実世界の大規模データセットであるMTMMCを紹介する。
論文 参考訳(メタデータ) (2024-03-29T15:08:37Z) - MCD: Diverse Large-Scale Multi-Campus Dataset for Robot Perception [24.67682960590225]
我々はMDDと呼ばれる包括的データセットを導入し、広範囲なセンシング・モダリティ、高精度な地上真実、多様な困難環境を特徴とする。
MCDはCCS(Classical Cylindrical Spinning)とNRE(Non-Repetitive Epicyclic)ライダー、高品質IMU(Inertial Measurement Units)、カメラ、UWB(Ultra-WideBand)センサーから構成されている。
先駆的な取り組みとして、59kのスパースNREライダースキャンで29クラスのセマンティックアノテーションを導入し、既存のセマンティックセグメンテーション研究に挑戦する。
論文 参考訳(メタデータ) (2024-03-18T06:00:38Z) - LiveHPS: LiDAR-based Scene-level Human Pose and Shape Estimation in Free
Environment [59.320414108383055]
シーンレベルの人間のポーズと形状推定のための単一LiDARに基づく新しいアプローチであるLiveHPSを提案する。
多様な人間のポーズを伴う様々なシナリオで収集される巨大な人間の動きデータセットFreeMotionを提案する。
論文 参考訳(メタデータ) (2024-02-27T03:08:44Z) - MSTAR: Multi-Scale Backbone Architecture Search for Timeseries
Classification [0.41185655356953593]
ニューラルアーキテクチャサーチ(NAS)のための新しいマルチスケール検索空間とフレームワークを提案する。
我々のモデルは、トレーニングされていない重量とトレーニング済み重量の両方を持つ強力なTransformerモジュールを使用するためのバックボーンとして機能することを示します。
検索空間は4つの異なる領域の4つのデータセットで最先端のパフォーマンスに達する。
論文 参考訳(メタデータ) (2024-02-21T13:59:55Z) - MMRDN: Consistent Representation for Multi-View Manipulation
Relationship Detection in Object-Stacked Scenes [62.20046129613934]
我々は,MMRDN(Multi-view MRD Network)と呼ばれる新しい多視点融合フレームワークを提案する。
異なるビューからの2Dデータを共通の隠れ空間に投影し、埋め込みをVon-Mises-Fisher分布に適合させる。
これら2つのオブジェクトの相対位置を符号化した各オブジェクト対の点雲から、K$最大垂直近傍点(KMVN)の集合を選択する。
論文 参考訳(メタデータ) (2023-04-25T05:55:29Z) - Uni3D: A Unified Baseline for Multi-dataset 3D Object Detection [34.2238222373818]
現在の3Dオブジェクト検出モデルは、単一のデータセット固有のトレーニングとテストのパラダイムに従っている。
本稿では,複数のデータセットから統合された3次元検出器を訓練する作業について検討する。
単純なデータレベルの修正操作と設計された意味レベルの結合・再結合モジュールを利用するUni3Dを提案する。
論文 参考訳(メタデータ) (2023-03-13T05:54:13Z) - Argoverse 2: Next Generation Datasets for Self-Driving Perception and
Forecasting [64.7364925689825]
Argoverse 2(AV2)は、自動運転分野の研究の知覚と予測のための3つのデータセットの集合である。
Lidarデータセットには、ラベルなしのLidar点雲とマップ整列ポーズの2万のシーケンスが含まれている。
Motion Forecastingデータセットには、各ローカルシーンにおける自動運転車と他のアクター間の興味深い、挑戦的なインタラクションのために採掘された25万のシナリオが含まれている。
論文 参考訳(メタデータ) (2023-01-02T00:36:22Z) - Learning 3D Human Pose Estimation from Dozens of Datasets using a
Geometry-Aware Autoencoder to Bridge Between Skeleton Formats [80.12253291709673]
本稿では,アフィン結合型オートエンコーダ(ACAE)法を提案する。
このアプローチは、28人の人間のポーズデータセットを使って1つのモデルを監督する、極端なマルチデータセット体制にスケールします。
論文 参考訳(メタデータ) (2022-12-29T22:22:49Z) - IDD-3D: Indian Driving Dataset for 3D Unstructured Road Scenes [79.18349050238413]
デプロイ可能なディープラーニングアーキテクチャの準備とトレーニングには、さまざまなトラフィックシナリオに適したモデルが必要である。
インドなどいくつかの発展途上国で見られる非構造的で複雑な運転レイアウトは、これらのモデルに挑戦している。
我々は、複数のカメラと12kの注釈付き駆動LiDARフレームを備えたLiDARセンサーのマルチモーダルデータからなる新しいデータセットIDD-3Dを構築した。
論文 参考訳(メタデータ) (2022-10-23T23:03:17Z) - DOLPHINS: Dataset for Collaborative Perception enabled Harmonious and
Interconnected Self-driving [19.66714697653504]
V2Xネットワークは、自動運転における協調的な認識を可能にしている。
データセットの欠如は、協調認識アルゴリズムの開発を著しく妨げている。
DOLPHINS: cOllaborative Perception を実現するためのデータセットである Harmonious と Inter connected Self-driving をリリースする。
論文 参考訳(メタデータ) (2022-07-15T17:07:07Z) - RELLIS-3D Dataset: Data, Benchmarks and Analysis [16.803548871633957]
RELLIS-3Dはオフロード環境で収集されたマルチモーダルデータセットである。
データはテキサスA&M大学のRellis Campusで収集されました。
論文 参考訳(メタデータ) (2020-11-17T18:28:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。