論文の概要: Highly Accurate and Diverse Traffic Data: The DeepScenario Open 3D Dataset
- arxiv url: http://arxiv.org/abs/2504.17371v2
- Date: Fri, 25 Apr 2025 12:59:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:53.303276
- Title: Highly Accurate and Diverse Traffic Data: The DeepScenario Open 3D Dataset
- Title(参考訳): 高精度で多様なトラフィックデータ:DeepScenario Open 3Dデータセット
- Authors: Oussema Dhaouadi, Johannes Meier, Luca Wahl, Jacques Kaiser, Luca Scalerandi, Nick Wandelburg, Zhuolun Zhou, Nijanthan Berinpanathan, Holger Banzhaf, Daniel Cremers,
- Abstract要約: 我々は,新しいモノクラーカメラドローン追跡パイプラインによって得られた6自由度境界ボックス軌道のDeepScenario Open 3Dデータセット(DSC3D)を紹介した。
当社のデータセットには、14種類のトラフィック参加者の175,000以上のトラジェクトリが含まれており、多様性とスケールの点で既存のデータセットを大きく上回っている。
動作予測,動作計画,シナリオマイニング,生成反応性トラフィックエージェントなど,複数のアプリケーションにまたがる実用性を実証する。
- 参考スコア(独自算出の注目度): 25.244956737443527
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Accurate 3D trajectory data is crucial for advancing autonomous driving. Yet, traditional datasets are usually captured by fixed sensors mounted on a car and are susceptible to occlusion. Additionally, such an approach can precisely reconstruct the dynamic environment in the close vicinity of the measurement vehicle only, while neglecting objects that are further away. In this paper, we introduce the DeepScenario Open 3D Dataset (DSC3D), a high-quality, occlusion-free dataset of 6 degrees of freedom bounding box trajectories acquired through a novel monocular camera drone tracking pipeline. Our dataset includes more than 175,000 trajectories of 14 types of traffic participants and significantly exceeds existing datasets in terms of diversity and scale, containing many unprecedented scenarios such as complex vehicle-pedestrian interaction on highly populated urban streets and comprehensive parking maneuvers from entry to exit. DSC3D dataset was captured in five various locations in Europe and the United States and include: a parking lot, a crowded inner-city, a steep urban intersection, a federal highway, and a suburban intersection. Our 3D trajectory dataset aims to enhance autonomous driving systems by providing detailed environmental 3D representations, which could lead to improved obstacle interactions and safety. We demonstrate its utility across multiple applications including motion prediction, motion planning, scenario mining, and generative reactive traffic agents. Our interactive online visualization platform and the complete dataset are publicly available at https://app.deepscenario.com, facilitating research in motion prediction, behavior modeling, and safety validation.
- Abstract(参考訳): 正確な3D軌道データは、自動運転を進める上で不可欠である。
しかし、従来のデータセットは通常、車に搭載された固定センサーによってキャプチャされ、閉塞を受けやすい。
さらに、そのようなアプローチは、さらに離れた物体を無視しながら、測定車両の近辺のみの動的環境を正確に再構築することができる。
本稿では,新しいモノクロカメラドローン追跡パイプラインを用いて取得した6自由度境界ボックス軌跡の高品質なオクルージョンフリーデータセットであるDeepScenario Open 3D Dataset (DSC3D)を紹介する。
我々のデータセットは、14種類の交通参加者の175,000以上の軌跡を含み、多様性と規模で既存のデータセットをはるかに上回り、人口の多い都市部における複雑な車両と歩行者の相互作用や入退避までの総合的な駐車操作など、多くの前例のないシナリオを含む。
DSC3Dデータセットは、ヨーロッパとアメリカの5か所で収集され、駐車場、混み合った内都市、急な都市交差点、連邦高速道路、郊外交差点を含む。
我々の3Dトラジェクトリデータセットは、環境の詳細な3D表現を提供することにより、自律走行システムを強化することを目的としており、それによって障害物の相互作用と安全性が向上する可能性がある。
動作予測,動作計画,シナリオマイニング,生成反応性トラフィックエージェントなど,複数のアプリケーションにまたがる実用性を実証する。
私たちのインタラクティブなオンライン可視化プラットフォームと完全なデータセットはhttps://app.deepscenario.comで公開されています。
関連論文リスト
- OnSiteVRU: A High-Resolution Trajectory Dataset for High-Density Vulnerable Road Users [41.63444034391952]
本研究は,交差点,道路セグメント,都市村など,様々なシナリオをカバーするOnSiteVRUデータセットを開発した。
データセットは、自動車、電動自転車、人力自転車の軌道データを提供し、約17,429の軌道を0.04秒精度で収集する。
その結果、VRU_DataはVRU密度とシーンカバレッジの点で従来のデータセットよりも優れており、VRUの行動特性をより包括的に表現できることがわかった。
論文 参考訳(メタデータ) (2025-03-30T08:44:55Z) - Advanced computer vision for extracting georeferenced vehicle trajectories from drone imagery [4.387337528923525]
本稿では,高高度ドローン画像からジオレファレンス車両軌跡を抽出する枠組みを提案する。
研究は韓国のソンド国際事業地区で行われた。
論文 参考訳(メタデータ) (2024-11-04T14:49:01Z) - InScope: A New Real-world 3D Infrastructure-side Collaborative Perception Dataset for Open Traffic Scenarios [13.821143687548494]
本稿では,新しい3次元インフラ側協調認識データセットについて紹介する。
InScopeは303の追跡軌道と187,787個の3D境界ボックスで20日間の捕獲期間をカプセル化している。
論文 参考訳(メタデータ) (2024-07-31T13:11:14Z) - Empowering Urban Traffic Management: Elevated 3D LiDAR for Data Collection and Advanced Object Detection Analysis [4.831084635928491]
本稿では,高機能LiDARセンサのパワーを利用して,交通シナリオにおける3次元物体の検出と解析を変換する新しいフレームワークを提案する。
実世界のトラフィックデータセットの取得に制限があるため、シミュレータを用いて特定のシナリオに対して3Dポイントクラウドを生成する。
論文 参考訳(メタデータ) (2024-05-21T21:12:09Z) - Argoverse 2: Next Generation Datasets for Self-Driving Perception and
Forecasting [64.7364925689825]
Argoverse 2(AV2)は、自動運転分野の研究の知覚と予測のための3つのデータセットの集合である。
Lidarデータセットには、ラベルなしのLidar点雲とマップ整列ポーズの2万のシーケンスが含まれている。
Motion Forecastingデータセットには、各ローカルシーンにおける自動運転車と他のアクター間の興味深い、挑戦的なインタラクションのために採掘された25万のシナリオが含まれている。
論文 参考訳(メタデータ) (2023-01-02T00:36:22Z) - IDD-3D: Indian Driving Dataset for 3D Unstructured Road Scenes [79.18349050238413]
デプロイ可能なディープラーニングアーキテクチャの準備とトレーニングには、さまざまなトラフィックシナリオに適したモデルが必要である。
インドなどいくつかの発展途上国で見られる非構造的で複雑な運転レイアウトは、これらのモデルに挑戦している。
我々は、複数のカメラと12kの注釈付き駆動LiDARフレームを備えたLiDARセンサーのマルチモーダルデータからなる新しいデータセットIDD-3Dを構築した。
論文 参考訳(メタデータ) (2022-10-23T23:03:17Z) - DOLPHINS: Dataset for Collaborative Perception enabled Harmonious and
Interconnected Self-driving [19.66714697653504]
V2Xネットワークは、自動運転における協調的な認識を可能にしている。
データセットの欠如は、協調認識アルゴリズムの開発を著しく妨げている。
DOLPHINS: cOllaborative Perception を実現するためのデータセットである Harmonious と Inter connected Self-driving をリリースする。
論文 参考訳(メタデータ) (2022-07-15T17:07:07Z) - Weakly Supervised Training of Monocular 3D Object Detectors Using Wide
Baseline Multi-view Traffic Camera Data [19.63193201107591]
交差点における車両の7DoF予測は,道路利用者間の潜在的な衝突を評価する上で重要な課題である。
交通監視カメラ用3次元物体検出装置の微調整を弱教師付きで行う手法を開発した。
提案手法は,自動運転車のデータセット上で最上位のモノクル3Dオブジェクト検出器と同等の精度で車両の7DoFの予測精度を推定する。
論文 参考訳(メタデータ) (2021-10-21T08:26:48Z) - One Million Scenes for Autonomous Driving: ONCE Dataset [91.94189514073354]
自律運転シナリオにおける3次元物体検出のためのONCEデータセットを提案する。
データは、利用可能な最大の3D自動運転データセットよりも20倍長い144時間の運転時間から選択される。
我々はONCEデータセット上で、様々な自己教師的・半教師的手法を再現し、評価する。
論文 参考訳(メタデータ) (2021-06-21T12:28:08Z) - Monocular Quasi-Dense 3D Object Tracking [99.51683944057191]
周囲の物体の将来の位置を予測し、自律運転などの多くのアプリケーションで観測者の行動を計画するためには、信頼性と正確な3D追跡フレームワークが不可欠である。
移動プラットフォーム上で撮影された2次元画像のシーケンスから,移動物体を時間とともに効果的に関連付け,その全3次元バウンディングボックス情報を推定するフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-12T15:30:02Z) - End-to-end Interpretable Neural Motion Planner [78.69295676456085]
複雑な都市環境での自律走行学習のためのニューラルモーションプランナー(NMP)を提案する。
我々は,生lidarデータとhdマップを入力とし,解釈可能な中間表現を生成する全体モデルを設計した。
北米のいくつかの都市で収集された実世界の運転データにおける我々のアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2021-01-17T14:16:12Z) - Fine-Grained Vehicle Perception via 3D Part-Guided Visual Data
Augmentation [77.60050239225086]
実画像中の車両に動的部品を付加した3次元自動車モデルによる効果的なトレーニングデータ生成プロセスを提案する。
私達のアプローチは人間の相互作用なしで完全に自動です。
VUS解析用マルチタスクネットワークとVHI解析用マルチストリームネットワークを提案する。
論文 参考訳(メタデータ) (2020-12-15T03:03:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。