論文の概要: R3ST: A Synthetic 3D Dataset With Realistic Trajectories
- arxiv url: http://arxiv.org/abs/2512.16784v1
- Date: Thu, 18 Dec 2025 17:18:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-19 18:10:32.18005
- Title: R3ST: A Synthetic 3D Dataset With Realistic Trajectories
- Title(参考訳): R3ST:リアルな軌道を持つ合成3Dデータセット
- Authors: Simone Teglia, Claudia Melis Tonti, Francesco Pro, Leonardo Russo, Andrea Alfarano, Leonardo Pentassuglia, Irene Amerini,
- Abstract要約: R3ST(Realistic 3D Synthetic Trajectories)は,現実的な車両運動の欠如を克服する合成データセットである。
提案したデータセットは、合成データとリアルな軌跡のギャップを埋める。
- 参考スコア(独自算出の注目度): 7.7401133539188365
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Datasets are essential to train and evaluate computer vision models used for traffic analysis and to enhance road safety. Existing real datasets fit real-world scenarios, capturing authentic road object behaviors, however, they typically lack precise ground-truth annotations. In contrast, synthetic datasets play a crucial role, allowing for the annotation of a large number of frames without additional costs or extra time. However, a general drawback of synthetic datasets is the lack of realistic vehicle motion, since trajectories are generated using AI models or rule-based systems. In this work, we introduce R3ST (Realistic 3D Synthetic Trajectories), a synthetic dataset that overcomes this limitation by generating a synthetic 3D environment and integrating real-world trajectories derived from SinD, a bird's-eye-view dataset recorded from drone footage. The proposed dataset closes the gap between synthetic data and realistic trajectories, advancing the research in trajectory forecasting of road vehicles, offering both accurate multimodal ground-truth annotations and authentic human-driven vehicle trajectories.
- Abstract(参考訳): データセットは、交通分析に使用されるコンピュータビジョンモデルを訓練し、評価し、道路安全を高めるために不可欠である。
既存のデータセットは現実のシナリオに適合し、本物の道路オブジェクトの振る舞いをキャプチャします。
対照的に、合成データセットは重要な役割を担い、追加のコストや余分な時間なしで多数のフレームのアノテーションを可能にする。
しかし、合成データセットの一般的な欠点は、AIモデルやルールベースのシステムを使用して軌道が生成されるため、現実的な車両の動きが欠如していることである。
本研究では,R3ST(Realistic 3D Synthetic Trajectories)という合成データセットを導入し,合成3D環境を生成し,ドローン映像から記録した鳥の目視データセットであるSinDから得られた実世界の軌跡を統合することにより,この制限を克服する。
提案したデータセットは、合成データと現実的な軌跡のギャップを埋め、道路車両の軌道予測の研究を進め、正確なマルチモーダルな地平線アノテーションと真正な人間駆動車軌道の両方を提供する。
関連論文リスト
- UrbanTwin: Synthetic LiDAR Datasets (LUMPI, V2X-Real-IC, and TUMTraf-I) [3.1508266388327324]
UrbanTwinデータセットは、3つの公開ロードサイドライダーデータセットの高忠実で現実的なレプリカである。
各UrbanTwinデータセットには、パブリックデータセットの1つに対応する10Kフレームが含まれている。
論文 参考訳(メタデータ) (2025-09-08T15:06:02Z) - R3D2: Realistic 3D Asset Insertion via Diffusion for Autonomous Driving Simulation [78.26308457952636]
本稿では,自律運転シミュレーションの限界を克服する軽量な1ステップ拡散モデルであるR3D2を紹介する。
シャドウや一貫した照明など、妥当なレンダリング効果を生み出すことで、既存のシーンに完全な3Dアセットを現実的に挿入することができる。
R3D2は挿入されたアセットの現実性を大幅に向上させ,テキストから3Dへのアセット挿入やクロスシーン/データセットオブジェクト転送といったユースケースを可能にした。
論文 参考訳(メタデータ) (2025-06-09T14:50:19Z) - Unraveling the Effects of Synthetic Data on End-to-End Autonomous Driving [35.49042205415498]
SceneCrafterは3Dガウススプレイティングに基づくリアルでインタラクティブで効率的な自動運転シミュレータである(3DGS)。
SceneCrafterは、さまざまなトラフィックシナリオにわたる現実的な運転ログを効率的に生成する。
また、エンドツーエンドモデルの堅牢なクローズドループ評価を可能にする。
論文 参考訳(メタデータ) (2025-03-23T15:27:43Z) - Drive-1-to-3: Enriching Diffusion Priors for Novel View Synthesis of Real Vehicles [81.29018359825872]
本稿では,実世界の課題に対して,大規模な事前学習モデルを微調整するための一連の優れたプラクティスを統合する。
具体的には,合成データと実運転データとの相違を考慮に入れたいくつかの戦略を開発する。
我々の洞察は、先行芸術よりも新しいビュー合成のためのFIDを68.8%値下げする効果のある微調整につながる。
論文 参考訳(メタデータ) (2024-12-19T03:39:13Z) - Enhancing Generalizability of Representation Learning for Data-Efficient 3D Scene Understanding [50.448520056844885]
本研究では,実世界のパターンを持つ多様な合成シーンを生成可能なベイズネットワークを提案する。
一連の実験は、既存の最先端の事前学習手法に比べて、我々の手法が一貫した優位性を示す。
論文 参考訳(メタデータ) (2024-06-17T07:43:53Z) - Augmented Reality based Simulated Data (ARSim) with multi-view consistency for AV perception networks [47.07188762367792]
ARSimは3次元合成オブジェクトを用いた実写多視点画像データの拡張を目的としたフレームワークである。
実データを用いて簡易な仮想シーンを構築し,その内部に戦略的に3D合成資産を配置する。
結果として得られたマルチビュー一貫性のあるデータセットは、自動運転車のためのマルチカメラ知覚ネットワークのトレーニングに使用される。
論文 参考訳(メタデータ) (2024-03-22T17:49:11Z) - Unsupervised Traffic Scene Generation with Synthetic 3D Scene Graphs [83.9783063609389]
本稿では,ドメイン不変シーン表現に基づくトラフィックシーンの画像をレンダリングせずに直接合成する手法を提案する。
具体的には、内部表現として合成シーングラフに依存し、現実的な交通シーン合成のための教師なしニューラルネットワークアーキテクチャを導入する。
論文 参考訳(メタデータ) (2023-03-15T09:26:29Z) - Hands-Up: Leveraging Synthetic Data for Hands-On-Wheel Detection [0.38233569758620045]
この研究は、ドライバモニタリングシステムのトレーニングに合成フォトリアリスティックインキャビンデータを使用することを実証する。
プラットフォームでエラー解析を行い、欠落したエッジケースを生成することで、パフォーマンスが向上することを示す。
これは、人間中心の合成データが現実世界にうまく一般化する能力を示している。
論文 参考訳(メタデータ) (2022-05-31T23:34:12Z) - Recovering and Simulating Pedestrians in the Wild [81.38135735146015]
本研究では,自動車の走行によって野生で捕獲されたセンサから歩行者の形状と動きを復元することを提案する。
再建された歩行者資産銀行をリアルな3Dシミュレーションシステムに組み込む。
シミュレーションしたLiDARデータを用いて,視覚知覚タスクに必要な実世界のデータ量を大幅に削減できることを示す。
論文 参考訳(メタデータ) (2020-11-16T17:16:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。