論文の概要: DrivIng: A Large-Scale Multimodal Driving Dataset with Full Digital Twin Integration
- arxiv url: http://arxiv.org/abs/2601.15260v1
- Date: Wed, 21 Jan 2026 18:41:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-22 21:27:50.49923
- Title: DrivIng: A Large-Scale Multimodal Driving Dataset with Full Digital Twin Integration
- Title(参考訳): DrivIng: 完全なデジタルツイン統合を備えた大規模マルチモーダル運転データセット
- Authors: Dominik Rößle, Xujun Xie, Adithya Mohan, Venkatesh Thirugnana Sambandham, Daniel Cremers, Torsten Schön,
- Abstract要約: 我々は18kmのルートの完全なデジタル双対を持つ大規模マルチモーダルデータセットであるDrivIngを提示する。
我々のデータセットは、6台のRGBカメラ、1台のLiDAR、そして1日中、夕暮れ時、夜の間を撮影する高精度ADMAベースのローカライゼーションから連続的な記録を提供する。
DrivIngは実際のトラフィックをシミュレーションに1対1で転送し、エージェントのインタラクションを保存すると同時に、現実的で柔軟なシナリオテストを可能にする。
- 参考スコア(独自算出の注目度): 35.44401354820601
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Perception is a cornerstone of autonomous driving, enabling vehicles to understand their surroundings and make safe, reliable decisions. Developing robust perception algorithms requires large-scale, high-quality datasets that cover diverse driving conditions and support thorough evaluation. Existing datasets often lack a high-fidelity digital twin, limiting systematic testing, edge-case simulation, sensor modification, and sim-to-real evaluations. To address this gap, we present DrivIng, a large-scale multimodal dataset with a complete geo-referenced digital twin of a ~18 km route spanning urban, suburban, and highway segments. Our dataset provides continuous recordings from six RGB cameras, one LiDAR, and high-precision ADMA-based localization, captured across day, dusk, and night. All sequences are annotated at 10 Hz with 3D bounding boxes and track IDs across 12 classes, yielding ~1.2 million annotated instances. Alongside the benefits of a digital twin, DrivIng enables a 1-to-1 transfer of real traffic into simulation, preserving agent interactions while enabling realistic and flexible scenario testing. To support reproducible research and robust validation, we benchmark DrivIng with state-of-the-art perception models and publicly release the dataset, digital twin, HD map, and codebase.
- Abstract(参考訳): 知覚は自動運転車の基盤であり、車両が周囲を理解し、安全で信頼性の高い決定を下すことを可能にする。
堅牢な認識アルゴリズムを開発するには、さまざまな運転条件をカバーし、徹底的な評価をサポートする、大規模で高品質なデータセットが必要である。
既存のデータセットには、高忠実なデジタルツインが欠如しており、体系的なテスト、エッジケースシミュレーション、センサー修正、シム・トゥ・リアル評価が制限されている。
このギャップに対処するため,都市,郊外,高速道路の各区間にまたがる約18kmのルートの完全なジオレファレンス・デジタルツインを備えた大規模マルチモーダルデータセットであるDrivIngを紹介した。
我々のデータセットは、6台のRGBカメラ、1台のLiDAR、そして1日中、夕暮れ時、夜の間を撮影する高精度ADMAベースのローカライゼーションから連続的な記録を提供する。
すべてのシーケンスは10Hzでアノテートされ、3Dバウンディングボックスと12クラスのIDが追跡され、120万のアノテートインスタンスが生成される。
デジタルツインのメリットに加えて、DriivIngは実際のトラフィックをシミュレーションに1対1で転送し、エージェントのインタラクションを保ちながら、現実的で柔軟なシナリオテストを可能にする。
再現可能な研究とロバストな検証をサポートするため、DrivIngを最先端の認識モデルでベンチマークし、データセット、デジタルツイン、HDマップ、コードベースを公開しています。
関連論文リスト
- UrbanIng-V2X: A Large-Scale Multi-Vehicle, Multi-Infrastructure Dataset Across Multiple Intersections for Cooperative Perception [45.81880967650386]
UrbanIng-V2Xは、時間的に整列された34のセンサーシーケンスと、20秒間続く空間的に校正されたセンサーシーケンスから構成される。
すべてのシーケンスは10Hzの周波数でアノテートされ、3D境界ボックスは13のオブジェクトクラスにまたがる。
UrbanIng-V2Xは合計12台の車載RGBカメラ、2台の車載LiDAR、17台のインフラ熱カメラ、12台のインフラLiDARからのデータを提供する。
論文 参考訳(メタデータ) (2025-10-27T16:12:12Z) - JiSAM: Alleviate Labeling Burden and Corner Case Problems in Autonomous Driving via Minimal Real-World Data [49.2298619289506]
本稿では,ジッタリング強化,ドメイン認識バックボーン,メモリに基づくセクタライズAlignMentのためのJiSAMというプラグイン・アンド・プレイ手法を提案する。
有名なADデータセットであるNuScenesで実施された広範な実験において、SOTA 3Dオブジェクト検出器を用いて、JiSAMはシミュレーションデータと2.5%の実データにラベルを付けるだけで、実データで訓練されたモデルに匹敵する性能が得られることを示した。
論文 参考訳(メタデータ) (2025-03-11T13:35:39Z) - SCaRL- A Synthetic Multi-Modal Dataset for Autonomous Driving [0.0]
本稿では、自律運転ソリューションのトレーニングと検証を可能にするために、合成生成された新しいマルチモーダルデータセットであるSCaRLを提案する。
SCaRLはCARLA Simulatorに基づく大規模なデータセットであり、多様な動的シナリオとトラフィック条件のためのデータを提供する。
論文 参考訳(メタデータ) (2024-05-27T10:31:26Z) - Argoverse 2: Next Generation Datasets for Self-Driving Perception and
Forecasting [64.7364925689825]
Argoverse 2(AV2)は、自動運転分野の研究の知覚と予測のための3つのデータセットの集合である。
Lidarデータセットには、ラベルなしのLidar点雲とマップ整列ポーズの2万のシーケンスが含まれている。
Motion Forecastingデータセットには、各ローカルシーンにおける自動運転車と他のアクター間の興味深い、挑戦的なインタラクションのために採掘された25万のシナリオが含まれている。
論文 参考訳(メタデータ) (2023-01-02T00:36:22Z) - aiMotive Dataset: A Multimodal Dataset for Robust Autonomous Driving
with Long-Range Perception [0.0]
このデータセットは、同期して校正されたLiDAR、カメラ、および360度の視野をカバーするレーダーセンサーを備えた176のシーンで構成されている。
収集したデータは、昼間、夜、雨の間に、高速道路、都市、郊外で撮影された。
我々は3次元物体検出のための一次元・多モードベースラインモデルを訓練した。
論文 参考訳(メタデータ) (2022-11-17T10:19:59Z) - SODA10M: Towards Large-Scale Object Detection Benchmark for Autonomous
Driving [94.11868795445798]
我々は,SODA10Mという名の自律走行用大規模物体検出ベンチマークをリリースし,1000万枚の未ラベル画像と6つの代表対象カテゴリをラベル付けした20K画像を含む。
多様性を向上させるために、画像は32の異なる都市で、1フレームあたり10秒毎に異なる気象条件、期間、場所のシーンで収集される。
我々は、既存の教師付き最先端検出モデル、一般的な自己監督型および半教師付きアプローチ、および将来のモデルの開発方法に関するいくつかの知見について、広範な実験と詳細な分析を行った。
論文 参考訳(メタデータ) (2021-06-21T13:55:57Z) - One Million Scenes for Autonomous Driving: ONCE Dataset [91.94189514073354]
自律運転シナリオにおける3次元物体検出のためのONCEデータセットを提案する。
データは、利用可能な最大の3D自動運転データセットよりも20倍長い144時間の運転時間から選択される。
我々はONCEデータセット上で、様々な自己教師的・半教師的手法を再現し、評価する。
論文 参考訳(メタデータ) (2021-06-21T12:28:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。