論文の概要: DriveSceneGen: Generating Diverse and Realistic Driving Scenarios from
Scratch
- arxiv url: http://arxiv.org/abs/2309.14685v2
- Date: Wed, 28 Feb 2024 09:31:22 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-29 18:41:19.233910
- Title: DriveSceneGen: Generating Diverse and Realistic Driving Scenarios from
Scratch
- Title(参考訳): DriveSceneGen:スクラッチから多様なリアルな運転シナリオを生成する
- Authors: Shuo Sun, Zekai Gu, Tianchen Sun, Jiawei Sun, Chengran Yuan, Yuhang
Han, Dongen Li, Marcelo H. Ang Jr
- Abstract要約: この研究は、実世界の運転データセットから学習するデータ駆動駆動シナリオ生成メソッドであるDriveSceneGenを紹介する。
DriveSceneGenは、実世界のデータ配信と高い忠実度と多様性を備えた新しい駆動シナリオを生成することができる。
私たちの知る限り、DriveSceneGenは、静的マップ要素と動的トラフィック参加者の両方をスクラッチから含む、新しい駆動シナリオを生成する最初の方法です。
- 参考スコア(独自算出の注目度): 6.919313701949779
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Realistic and diverse traffic scenarios in large quantities are crucial for
the development and validation of autonomous driving systems. However, owing to
numerous difficulties in the data collection process and the reliance on
intensive annotations, real-world datasets lack sufficient quantity and
diversity to support the increasing demand for data. This work introduces
DriveSceneGen, a data-driven driving scenario generation method that learns
from the real-world driving dataset and generates entire dynamic driving
scenarios from scratch. DriveSceneGen is able to generate novel driving
scenarios that align with real-world data distributions with high fidelity and
diversity. Experimental results on 5k generated scenarios highlight the
generation quality, diversity, and scalability compared to real-world datasets.
To the best of our knowledge, DriveSceneGen is the first method that generates
novel driving scenarios involving both static map elements and dynamic traffic
participants from scratch.
- Abstract(参考訳): 現実的で多様な交通シナリオが自動運転システムの開発と検証に不可欠である。
しかし、データ収集プロセスの多くの困難と集中的なアノテーションに依存するため、実世界のデータセットはデータ需要の増加をサポートするのに十分な量と多様性を欠いている。
この研究は、実世界の運転データセットから学習し、スクラッチから全動的運転シナリオを生成するデータ駆動駆動駆動シナリオ生成メソッドであるDriveSceneGenを紹介する。
DriveSceneGenは、実世界のデータ配信と高い忠実度と多様性を備えた新しい駆動シナリオを生成することができる。
5k生成シナリオの実験結果は、実世界のデータセットと比較して、生成品質、多様性、スケーラビリティを強調している。
私たちの知る限り、DriveSceneGenは、静的マップ要素と動的トラフィック参加者の両方をスクラッチから含む新しい駆動シナリオを生成する最初の方法です。
関連論文リスト
- GenDDS: Generating Diverse Driving Video Scenarios with Prompt-to-Video Generative Model [6.144680854063938]
GenDDSは、自律運転システムの運転シナリオを生成するための新しいアプローチである。
我々は、実際の運転ビデオを含むKITTIデータセットを使用して、モデルをトレーニングする。
実世界の運転シナリオの複雑さと変動性を密に再現した高品質な運転映像を,我々のモデルで生成できることを実証した。
論文 参考訳(メタデータ) (2024-08-28T15:37:44Z) - DriveDiTFit: Fine-tuning Diffusion Transformers for Autonomous Driving [27.92501884414881]
自律運転では、データセットは悪天候、照明条件、さまざまな移動物体を含む様々な運転シナリオをカバーすることが期待されている。
DriveDiTFitを提案する。Diffusion Transformer(DiT)を微調整することで、自律運転データを効率的に生成する新しい方法である。
具体的には、DriveDiTFitはギャップ駆動変調技術を用いて、事前訓練されたソースデータと目標駆動データとの相違に応じて、DiT内のいくつかのパラメータを慎重に選択し、効率的に微調整する。
論文 参考訳(メタデータ) (2024-07-22T14:18:52Z) - SimGen: Simulator-conditioned Driving Scene Generation [50.03358485083602]
シミュレーション条件付きシーン生成フレームワークSimGenを紹介する。
SimGenは、シミュレータと現実世界のデータを混ぜることで、多様な運転シーンを生成することを学ぶ。
テキストプロンプトとシミュレータからのレイアウトに基づいて制御性を保ちながら、優れた生成品質と多様性を実現する。
論文 参考訳(メタデータ) (2024-06-13T17:58:32Z) - DragTraffic: Interactive and Controllable Traffic Scene Generation for Autonomous Driving [10.90477019946728]
DragTrafficは、条件付き拡散に基づく、汎用的でインタラクティブで制御可能なトラフィックシーン生成フレームワークである。
我々は回帰モデルを用いて、一般的な初期解と条件拡散モデルに基づく改良プロセスを提供し、多様性を保証する。
実世界の運転データセットの実験によると、DragTrafficは信頼性、多様性、自由度で既存の手法より優れている。
論文 参考訳(メタデータ) (2024-04-19T04:49:28Z) - GenAD: Generalized Predictive Model for Autonomous Driving [75.39517472462089]
本稿では,自動運転分野における最初の大規模ビデオ予測モデルを紹介する。
我々のモデルはGenADと呼ばれ、新しい時間的推論ブロックでシーンを駆動する際の挑戦的なダイナミクスを扱う。
アクション条件付き予測モデルやモーションプランナーに適応することができ、現実世界の運転アプリケーションに大きな可能性を秘めている。
論文 参考訳(メタデータ) (2024-03-14T17:58:33Z) - RealGen: Retrieval Augmented Generation for Controllable Traffic Scenarios [58.62407014256686]
RealGenは、トラフィックシナリオ生成のための新しい検索ベースのコンテキスト内学習フレームワークである。
RealGenは、複数の検索されたサンプルの振る舞いを勾配のない方法で組み合わせることで、新しいシナリオを合成する。
このコンテキスト内学習フレームワークは、シナリオを編集する機能を含む多種多様な生成機能を提供する。
論文 参考訳(メタデータ) (2023-12-19T23:11:06Z) - Generative AI-empowered Simulation for Autonomous Driving in Vehicular
Mixed Reality Metaverses [130.15554653948897]
車両混合現実(MR)メタバースでは、物理的実体と仮想実体の間の距離を克服することができる。
現実的なデータ収集と物理世界からの融合による大規模交通・運転シミュレーションは困難かつコストがかかる。
生成AIを利用して、無制限の条件付きトラフィックを合成し、シミュレーションでデータを駆動する自律運転アーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-02-16T16:54:10Z) - TRoVE: Transforming Road Scene Datasets into Photorealistic Virtual
Environments [84.6017003787244]
本研究では、シミュレーションデータセットに存在する困難とドメインギャップに対処する合成データ生成パイプラインを提案する。
既存のデータセットからアノテーションや視覚的手がかりを利用すれば、自動マルチモーダルデータ生成が容易になることを示す。
論文 参考訳(メタデータ) (2022-08-16T20:46:08Z) - SceneGen: Learning to Generate Realistic Traffic Scenes [92.98412203941912]
私たちは、ルールと分布の必要性を緩和するトラフィックシーンのニューラルオートレグレッシブモデルであるSceneGenを紹介します。
実トラフィックシーンの分布を忠実にモデル化するSceneGenの能力を実証する。
論文 参考訳(メタデータ) (2021-01-16T22:51:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。