論文の概要: S3E: A Large-scale Multimodal Dataset for Collaborative SLAM
- arxiv url: http://arxiv.org/abs/2210.13723v1
- Date: Tue, 25 Oct 2022 02:42:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-26 15:43:19.922191
- Title: S3E: A Large-scale Multimodal Dataset for Collaborative SLAM
- Title(参考訳): S3E:コラボレーションSLAMのための大規模マルチモーダルデータセット
- Authors: Dapeng Feng, Yuhua Qi, Shipeng Zhong, Zhiqiang Chen, Yudu Jiao, Qiming
Chen, Tao Jiang, Hongbo Chen
- Abstract要約: S3Eは、無人地上車両群が捉えた、新しい大規模マルチモーダルデータセットである。
S3Eは7つの屋外シーンと5つの屋内シーンで構成され、それぞれ200秒を超える。
EuRoCデータセットのパイオニアであるEuRoCの4倍の平均記録時間を持つ。
- 参考スコア(独自算出の注目度): 10.35927345126597
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the advanced request to employ a team of robots to perform a task
collaboratively, the research community has become increasingly interested in
collaborative simultaneous localization and mapping. Unfortunately, existing
datasets are limited in the scale and variation of the collaborative
trajectories they capture, even though generalization between
inter-trajectories among different agents is crucial to the overall viability
of collaborative tasks. To help align the research community's contributions
with real-world multiagent ordinated SLAM problems, we introduce S3E, a novel
large-scale multimodal dataset captured by a fleet of unmanned ground vehicles
along four designed collaborative trajectory paradigms. S3E consists of 7
outdoor and 5 indoor scenes that each exceed 200 seconds, consisting of well
synchronized and calibrated high-quality stereo camera, LiDAR, and
high-frequency IMU data. Crucially, our effort exceeds previous attempts
regarding dataset size, scene variability, and complexity. It has 4x as much
average recording time as the pioneering EuRoC dataset. We also provide careful
dataset analysis as well as baselines for collaborative SLAM and single
counterparts. Find data, code, and more up-to-date information at
https://github.com/PengYu-Team/S3E.
- Abstract(参考訳): タスクを協調的に実行するロボットチームを採用するという高度な要求により、研究コミュニティは協調的なローカライゼーションとマッピングにますます関心を寄せている。
残念なことに、既存のデータセットは、異なるエージェント間のトラジェクトリ間の一般化が協調作業全体の実行可能性に不可欠であるにもかかわらず、それらがキャプチャするコラボレーティブトラジェクトリのスケールとバリエーションに制限されている。
研究コミュニティの貢献を、実世界のマルチエージェント順序付きslam問題と整合させるのに役立てるため、s3eという、無人地上車両群が捉えた、新しい大規模マルチモーダルデータセットを、4つの協調軌道パラダイムと共に紹介する。
S3Eは7つの屋外シーンと5つの屋内シーンで構成され、それぞれ200秒を超える。
重要なことは、データセットのサイズ、シーンの可変性、複雑さに関するこれまでの試みを超えています。
EuRoCデータセットのパイオニアであるEuRoCの4倍の平均記録時間を持つ。
また、注意深いデータセット分析や、コラボレーションSLAMと単一データセットのベースラインも提供しています。
最新情報についてはhttps://github.com/PengYu-Team/S3E.comを参照。
関連論文リスト
- LiveHPS: LiDAR-based Scene-level Human Pose and Shape Estimation in Free
Environment [59.320414108383055]
シーンレベルの人間のポーズと形状推定のための単一LiDARに基づく新しいアプローチであるLiveHPSを提案する。
多様な人間のポーズを伴う様々なシナリオで収集される巨大な人間の動きデータセットFreeMotionを提案する。
論文 参考訳(メタデータ) (2024-02-27T03:08:44Z) - MSTAR: Multi-Scale Backbone Architecture Search for Timeseries
Classification [0.41185655356953593]
ニューラルアーキテクチャサーチ(NAS)のための新しいマルチスケール検索空間とフレームワークを提案する。
我々のモデルは、トレーニングされていない重量とトレーニング済み重量の両方を持つ強力なTransformerモジュールを使用するためのバックボーンとして機能することを示します。
検索空間は4つの異なる領域の4つのデータセットで最先端のパフォーマンスに達する。
論文 参考訳(メタデータ) (2024-02-21T13:59:55Z) - MMRDN: Consistent Representation for Multi-View Manipulation
Relationship Detection in Object-Stacked Scenes [62.20046129613934]
我々は,MMRDN(Multi-view MRD Network)と呼ばれる新しい多視点融合フレームワークを提案する。
異なるビューからの2Dデータを共通の隠れ空間に投影し、埋め込みをVon-Mises-Fisher分布に適合させる。
これら2つのオブジェクトの相対位置を符号化した各オブジェクト対の点雲から、K$最大垂直近傍点(KMVN)の集合を選択する。
論文 参考訳(メタデータ) (2023-04-25T05:55:29Z) - Uni3D: A Unified Baseline for Multi-dataset 3D Object Detection [34.2238222373818]
現在の3Dオブジェクト検出モデルは、単一のデータセット固有のトレーニングとテストのパラダイムに従っている。
本稿では,複数のデータセットから統合された3次元検出器を訓練する作業について検討する。
単純なデータレベルの修正操作と設計された意味レベルの結合・再結合モジュールを利用するUni3Dを提案する。
論文 参考訳(メタデータ) (2023-03-13T05:54:13Z) - Argoverse 2: Next Generation Datasets for Self-Driving Perception and
Forecasting [64.7364925689825]
Argoverse 2(AV2)は、自動運転分野の研究の知覚と予測のための3つのデータセットの集合である。
Lidarデータセットには、ラベルなしのLidar点雲とマップ整列ポーズの2万のシーケンスが含まれている。
Motion Forecastingデータセットには、各ローカルシーンにおける自動運転車と他のアクター間の興味深い、挑戦的なインタラクションのために採掘された25万のシナリオが含まれている。
論文 参考訳(メタデータ) (2023-01-02T00:36:22Z) - Learning 3D Human Pose Estimation from Dozens of Datasets using a
Geometry-Aware Autoencoder to Bridge Between Skeleton Formats [80.12253291709673]
本稿では,アフィン結合型オートエンコーダ(ACAE)法を提案する。
このアプローチは、28人の人間のポーズデータセットを使って1つのモデルを監督する、極端なマルチデータセット体制にスケールします。
論文 参考訳(メタデータ) (2022-12-29T22:22:49Z) - IDD-3D: Indian Driving Dataset for 3D Unstructured Road Scenes [79.18349050238413]
デプロイ可能なディープラーニングアーキテクチャの準備とトレーニングには、さまざまなトラフィックシナリオに適したモデルが必要である。
インドなどいくつかの発展途上国で見られる非構造的で複雑な運転レイアウトは、これらのモデルに挑戦している。
我々は、複数のカメラと12kの注釈付き駆動LiDARフレームを備えたLiDARセンサーのマルチモーダルデータからなる新しいデータセットIDD-3Dを構築した。
論文 参考訳(メタデータ) (2022-10-23T23:03:17Z) - DOLPHINS: Dataset for Collaborative Perception enabled Harmonious and
Interconnected Self-driving [19.66714697653504]
V2Xネットワークは、自動運転における協調的な認識を可能にしている。
データセットの欠如は、協調認識アルゴリズムの開発を著しく妨げている。
DOLPHINS: cOllaborative Perception を実現するためのデータセットである Harmonious と Inter connected Self-driving をリリースする。
論文 参考訳(メタデータ) (2022-07-15T17:07:07Z) - MS-TCT: Multi-Scale Temporal ConvTransformer for Action Detection [37.25262046781015]
アクション検出は不可欠で困難なタスクであり、特に未トリミングビデオの高密度にラベル付けされたデータセットに対してである。
本稿では,短期情報と長期情報の両方を効率的にキャプチャする行動検出のための新しいConvTransformerネットワークを提案する。
我々のネットワークは3つのデータセットすべてにおいて最先端の手法よりも優れています。
論文 参考訳(メタデータ) (2021-12-07T18:57:37Z) - RELLIS-3D Dataset: Data, Benchmarks and Analysis [16.803548871633957]
RELLIS-3Dはオフロード環境で収集されたマルチモーダルデータセットである。
データはテキサスA&M大学のRellis Campusで収集されました。
論文 参考訳(メタデータ) (2020-11-17T18:28:01Z) - Campus3D: A Photogrammetry Point Cloud Benchmark for Hierarchical
Understanding of Outdoor Scene [76.4183572058063]
複数の屋外シーン理解タスクに対して,リッチな注釈付き3Dポイントクラウドデータセットを提案する。
データセットは階層型ラベルとインスタンスベースのラベルの両方でポイントワイズアノテートされている。
本稿では,3次元点雲分割のための階層的学習問題を定式化し,様々な階層間の整合性を評価することを提案する。
論文 参考訳(メタデータ) (2020-08-11T19:10:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。