論文の概要: AccidentSim: Generating Physically Realistic Vehicle Collision Videos from Real-World Accident Reports
- arxiv url: http://arxiv.org/abs/2503.20654v1
- Date: Wed, 26 Mar 2025 15:50:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-27 13:21:54.961996
- Title: AccidentSim: Generating Physically Realistic Vehicle Collision Videos from Real-World Accident Reports
- Title(参考訳): AccidentSim: 実世界の事故報告から実物衝突映像を生成する
- Authors: Xiangwen Zhang, Qian Zhang, Longfei Han, Qiang Qu, Xiaoming Chen,
- Abstract要約: AccidentSimは、物理的に現実的な衝突ビデオを生成する新しいフレームワークである。
AccidentSimは事故報告の物理的および文脈的な情報から衝突後の車両軌道を再現する。
- 参考スコア(独自算出の注目度): 12.774506031982154
- License:
- Abstract: Collecting real-world vehicle accident videos for autonomous driving research is challenging due to their rarity and complexity. While existing driving video generation methods may produce visually realistic videos, they often fail to deliver physically realistic simulations because they lack the capability to generate accurate post-collision trajectories. In this paper, we introduce AccidentSim, a novel framework that generates physically realistic vehicle collision videos by extracting and utilizing the physical clues and contextual information available in real-world vehicle accident reports. Specifically, AccidentSim leverages a reliable physical simulator to replicate post-collision vehicle trajectories from the physical and contextual information in the accident reports and to build a vehicle collision trajectory dataset. This dataset is then used to fine-tune a language model, enabling it to respond to user prompts and predict physically consistent post-collision trajectories across various driving scenarios based on user descriptions. Finally, we employ Neural Radiance Fields (NeRF) to render high-quality backgrounds, merging them with the foreground vehicles that exhibit physically realistic trajectories to generate vehicle collision videos. Experimental results demonstrate that the videos produced by AccidentSim excel in both visual and physical authenticity.
- Abstract(参考訳): 自動運転車の研究のために、現実世界の事故ビデオを集めることは、その希少さと複雑さのために難しい。
既存の駆動ビデオ生成手法は、視覚的にリアルなビデオを生成するが、正確な衝突後の軌道を生成する能力がないため、物理的にリアルなシミュレーションを行うことができないことが多い。
本稿では,現実の車両事故報告で利用可能な物理的手がかりや状況情報を抽出し,活用することにより,現実的な車両衝突映像を生成する新しいフレームワークであるAccidentSimを紹介する。
具体的には、AccidentSimは信頼性の高い物理シミュレータを利用して、事故報告の物理的および文脈的な情報から衝突後の車両軌道を再現し、衝突軌道データセットを構築する。
このデータセットは、言語モデルを微調整するために使用され、ユーザプロンプトに応答し、ユーザ記述に基づいて、さまざまな駆動シナリオにわたる物理的に一貫性のあるポストコリデーションを予測できる。
最後に、Neural Radiance Fields(NeRF)を用いて高品質な背景をレンダリングし、それらを物理的にリアルな軌道を示す前景の車両にマージし、車両衝突ビデオを生成する。
実験結果から,AccidentSimが生成した映像は,視覚的,身体的両方の信頼性に優れていた。
関連論文リスト
- From Dashcam Videos to Driving Simulations: Stress Testing Automated Vehicles against Rare Events [5.132984904858975]
現実的な運転シナリオを用いたシミュレーションにおける自動運転システム(ADS)のテストは、その性能を検証する上で重要である。
本稿では,現実の自動車事故映像の詳細なシミュレーションシナリオへの変換を自動化する新しいフレームワークを提案する。
予備結果は,完全自動化と人的介入を伴わず,リアルタイム変換を数分で完了させるという,かなりの時間効率を示した。
論文 参考訳(メタデータ) (2024-11-25T01:01:54Z) - DrivingSphere: Building a High-fidelity 4D World for Closed-loop Simulation [54.02069690134526]
本研究では,現実的でクローズドループなシミュレーションフレームワークであるDrivingSphereを提案する。
その中核となる考え方は、4Dの世界表現を構築し、実生活と制御可能な運転シナリオを生成することである。
動的で現実的なシミュレーション環境を提供することで、DrivingSphereは自律運転アルゴリズムの包括的なテストと検証を可能にする。
論文 参考訳(メタデータ) (2024-11-18T03:00:33Z) - DeepAccident: A Motion and Accident Prediction Benchmark for V2X
Autonomous Driving [76.29141888408265]
本研究では,現実の運転において頻繁に発生する多様な事故シナリオを含む大規模データセットを提案する。
提案したDeepAccidentデータセットには57Kの注釈付きフレームと285Kの注釈付きサンプルが含まれており、これは大規模なnuScenesデータセットの約7倍である。
論文 参考訳(メタデータ) (2023-04-03T17:37:00Z) - Sim-to-Real via Sim-to-Seg: End-to-end Off-road Autonomous Driving
Without Real Data [56.49494318285391]
我々は、オフロード自動運転の視覚的現実的ギャップを横断するRCANを再想像するSim2Segを紹介する。
これは、ランダム化されたシミュレーション画像をシミュレートされたセグメンテーションと深さマップに変換する学習によって行われる。
これにより、シミュレーションでエンドツーエンドのRLポリシーをトレーニングし、現実世界に直接デプロイできます。
論文 参考訳(メタデータ) (2022-10-25T17:50:36Z) - Data generation using simulation technology to improve perception
mechanism of autonomous vehicles [0.0]
実世界から収集したデータと模擬世界から生成されたデータを組み合わせることで、認識システムを訓練する効果を実証する。
また,人間の学習体験をエミュレートすることを目的とした多段階深層学習知覚フレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-01T03:42:33Z) - SceneGen: Learning to Generate Realistic Traffic Scenes [92.98412203941912]
私たちは、ルールと分布の必要性を緩和するトラフィックシーンのニューラルオートレグレッシブモデルであるSceneGenを紹介します。
実トラフィックシーンの分布を忠実にモデル化するSceneGenの能力を実証する。
論文 参考訳(メタデータ) (2021-01-16T22:51:43Z) - Testing the Safety of Self-driving Vehicles by Simulating Perception and
Prediction [88.0416857308144]
センサシミュレーションは高価であり,領域ギャップが大きいため,センサシミュレーションに代わる方法を提案する。
我々は、自動運転車の知覚と予測システムの出力を直接シミュレートし、現実的な動き計画テストを可能にする。
論文 参考訳(メタデータ) (2020-08-13T17:20:02Z) - LiDARsim: Realistic LiDAR Simulation by Leveraging the Real World [84.57894492587053]
物理に基づくシミュレーションと学習に基づくシミュレーションの両方のパワーをキャプチャする新しいシミュレータを開発した。
まず3Dシーン上でレイキャストを行い、次にディープニューラルネットワークを用いて物理シミュレーションから偏差を生成する。
本稿では,LiDARsimが長距離イベントにおける認識アルゴリズムのテストに有用であること,および安全クリティカルシナリオにおけるエンドツーエンドのクローズループ評価について紹介する。
論文 参考訳(メタデータ) (2020-06-16T17:44:35Z) - SurfelGAN: Synthesizing Realistic Sensor Data for Autonomous Driving [27.948417322786575]
本稿では,現実的なシナリオセンサデータを生成するための,シンプルで効果的な手法を提案する。
われわれのアプローチでは、テクスチャマップされたサーフを使用して、初期車両のパスやセットのパスからシーンを効率的に再構築する。
次に、SurfelGANネットワークを利用して、現実的なカメライメージを再構築し、自動運転車の新たな位置と方向を推定する。
論文 参考訳(メタデータ) (2020-05-08T04:01:14Z) - DeepCrashTest: Turning Dashcam Videos into Virtual Crash Tests for
Automated Driving Systems [9.17424462858218]
私たちは、インターネットにアップロードされたダッシュカムのクラッシュビデオを使って、貴重な衝突データを抽出します。
未知のモノクロカメラで撮影されたビデオから3次元車両軌跡を抽出する問題に対処する。
論文 参考訳(メタデータ) (2020-03-26T07:03:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。