論文の概要: UrbanTwin: High-Fidelity Synthetic Replicas of Roadside Lidar Datasets
- arxiv url: http://arxiv.org/abs/2509.06781v1
- Date: Mon, 08 Sep 2025 15:06:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-09 14:07:04.206796
- Title: UrbanTwin: High-Fidelity Synthetic Replicas of Roadside Lidar Datasets
- Title(参考訳): UrbanTwin:ロードサイドライダーデータセットの高忠実な合成レプリカ
- Authors: Muhammad Shahbaz, Shaurya Agarwal,
- Abstract要約: UrbanTwinデータセットは、3つの公開ロードサイドライダーデータセットの高忠実で現実的なレプリカである。
各UrbanTwinデータセットには、パブリックデータセットの1つに対応する10Kフレームが含まれている。
- 参考スコア(独自算出の注目度): 3.1508266388327324
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This article presents UrbanTwin datasets - high-fidelity, realistic replicas of three public roadside lidar datasets: LUMPI, V2X-Real-IC, and TUMTraf-I. Each UrbanTwin dataset contains 10K annotated frames corresponding to one of the public datasets. Annotations include 3D bounding boxes, instance segmentation labels, and tracking IDs for six object classes, along with semantic segmentation labels for nine classes. These datasets are synthesized using emulated lidar sensors within realistic digital twins, modeled based on surrounding geometry, road alignment at lane level, and the lane topology and vehicle movement patterns at intersections of the actual locations corresponding to each real dataset. Due to the precise digital twin modeling, the synthetic datasets are well aligned with their real counterparts, offering strong standalone and augmentative value for training deep learning models on tasks such as 3D object detection, tracking, and semantic and instance segmentation. We evaluate the alignment of the synthetic replicas through statistical and structural similarity analysis with real data, and further demonstrate their utility by training 3D object detection models solely on synthetic data and testing them on real, unseen data. The high similarity scores and improved detection performance, compared to the models trained on real data, indicate that the UrbanTwin datasets effectively enhance existing benchmark datasets by increasing sample size and scene diversity. In addition, the digital twins can be adapted to test custom scenarios by modifying the design and dynamics of the simulations. To our knowledge, these are the first digitally synthesized datasets that can replace in-domain real-world datasets for lidar perception tasks. UrbanTwin datasets are publicly available at https://dataverse.harvard.edu/dataverse/ucf-ut.
- Abstract(参考訳): 本稿では、LUMPI、V2X-Real-IC、TUMTraf-Iの3つの公開ロードサイドライダーデータセットの高忠実で現実的なレプリカであるUrbanTwinデータセットについて述べる。
各UrbanTwinデータセットには、パブリックデータセットの1つに対応する10Kの注釈付きフレームが含まれている。
アノテーションには、3Dバウンディングボックス、インスタンスセグメンテーションラベル、6つのオブジェクトクラスのIDと9つのクラスのセグメンテーションラベルが含まれる。
これらのデータセットは、周囲の幾何学、レーンレベルの道路アライメント、および実際のデータセットに対応する実際の位置の交差点における車線トポロジーと車両の動きパターンに基づいて、リアルなデジタルツイン内のエミュレートされたライダーセンサーを用いて合成される。
正確なデジタルツインモデリングのため、合成データセットは実際のデータセットとよく一致しており、3Dオブジェクトの検出、トラッキング、セマンティックとインスタンスセグメンテーションといったタスクでディープラーニングモデルをトレーニングするための強力なスタンドアロンと拡張的な価値を提供する。
実データと統計的・構造的類似性解析により合成レプリカのアライメントを評価し, 合成データのみに限って3次元物体検出モデルを訓練し, 実データで検証することによって, さらに有用性を実証する。
実際のデータでトレーニングされたモデルと比較して、高い類似度スコアと検出性能の向上は、UrbanTwinデータセットがサンプルサイズとシーンの多様性を増大させることで、既存のベンチマークデータセットを効果的に強化することを示している。
さらに、デジタルツインは、シミュレーションの設計とダイナミクスを変更することで、カスタムシナリオのテストに適応することができる。
私たちの知る限り、これらのデータセットは初めてデジタル合成されたデータセットで、ドメイン内の現実世界のデータセットをライダー認識タスクに置き換えることができます。
UrbanTwinデータセットはhttps://dataverse.harvard.edu/dataverse/ucf-ut.comで公開されている。
関連論文リスト
- High-Fidelity Digital Twins for Bridging the Sim2Real Gap in LiDAR-Based ITS Perception [3.1508266388327324]
本稿では,実世界の背景形状,レーンレベルの道路トポロジ,センサ固有の仕様と配置を組み込んだ高忠実なディジタルツイン(HiFi DT)フレームワークを提案する。
実験の結果、DT訓練モデルでは、実際のデータでトレーニングされた同等のモデルを4.8%上回る結果が得られた。
論文 参考訳(メタデータ) (2025-09-03T00:12:58Z) - TUM2TWIN: Introducing the Large-Scale Multimodal Urban Digital Twin Benchmark Dataset [90.97440987655084]
都市デジタルツインズ(UDT)は、都市管理と多様なソースからの複雑な異種データの統合に欠かせないものとなっている。
これらの課題に対処するために、最初の総合的マルチモーダルなUrban Digital TwinベンチマークデータセットTUM2TWINを紹介する。
このデータセットには、地理的にセマンティックに整合した3Dモデルとネットワーク、およびさまざまな地球、モバイル、航空、衛星観測結果、約10,000ドル以上のデータサブセット、そして現在767GBのデータが含まれている。
論文 参考訳(メタデータ) (2025-05-12T09:48:32Z) - Towards Generating Realistic 3D Semantic Training Data for Autonomous Driving [27.088907562842902]
自律運転では、3Dセマンティックセグメンテーションが安全なナビゲーションを可能にする重要な役割を果たす。
3Dデータの収集と注釈付けの複雑さは、この開発のボトルネックである。
本稿では,3次元のセマンティック・シーン・スケールのデータを投影モデルやデカップリングモデルに頼らずに生成する手法を提案する。
論文 参考訳(メタデータ) (2025-03-27T12:41:42Z) - Enhancing Generalizability of Representation Learning for Data-Efficient 3D Scene Understanding [50.448520056844885]
本研究では,実世界のパターンを持つ多様な合成シーンを生成可能なベイズネットワークを提案する。
一連の実験は、既存の最先端の事前学習手法に比べて、我々の手法が一貫した優位性を示す。
論文 参考訳(メタデータ) (2024-06-17T07:43:53Z) - Augmented Reality based Simulated Data (ARSim) with multi-view consistency for AV perception networks [47.07188762367792]
ARSimは3次元合成オブジェクトを用いた実写多視点画像データの拡張を目的としたフレームワークである。
実データを用いて簡易な仮想シーンを構築し,その内部に戦略的に3D合成資産を配置する。
結果として得られたマルチビュー一貫性のあるデータセットは、自動運転車のためのマルチカメラ知覚ネットワークのトレーニングに使用される。
論文 参考訳(メタデータ) (2024-03-22T17:49:11Z) - Learning from Synthetic Data for Visual Grounding [55.21937116752679]
そこで本研究では,SynGroundが市販のビジョン・アンド・ランゲージモデルのローカライズ能力を向上できることを示す。
SynGroundで生成されたデータは、事前訓練されたALBEFモデルとBLIPモデルのポインティングゲーム精度をそれぞれ4.81%、絶対パーセンテージポイント17.11%向上させる。
論文 参考訳(メタデータ) (2024-03-20T17:59:43Z) - A New Benchmark: On the Utility of Synthetic Data with Blender for Bare
Supervised Learning and Downstream Domain Adaptation [42.2398858786125]
コンピュータビジョンにおけるディープラーニングは、大規模ラベル付きトレーニングデータの価格で大きな成功を収めた。
制御不能なデータ収集プロセスは、望ましくない重複が存在する可能性のある非IIDトレーニングおよびテストデータを生成する。
これを回避するために、ドメインランダム化による3Dレンダリングによる合成データを生成する方法がある。
論文 参考訳(メタデータ) (2023-03-16T09:03:52Z) - TRoVE: Transforming Road Scene Datasets into Photorealistic Virtual
Environments [84.6017003787244]
本研究では、シミュレーションデータセットに存在する困難とドメインギャップに対処する合成データ生成パイプラインを提案する。
既存のデータセットからアノテーションや視覚的手がかりを利用すれば、自動マルチモーダルデータ生成が容易になることを示す。
論文 参考訳(メタデータ) (2022-08-16T20:46:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。