論文の概要: RealEngine: Simulating Autonomous Driving in Realistic Context
- arxiv url: http://arxiv.org/abs/2505.16902v1
- Date: Thu, 22 May 2025 17:01:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-23 17:12:48.478254
- Title: RealEngine: Simulating Autonomous Driving in Realistic Context
- Title(参考訳): RealEngine: 現実的なコンテキストで自律運転をシミュレートする
- Authors: Junzhe Jiang, Nan Song, Jingyu Li, Xiatian Zhu, Li Zhang,
- Abstract要約: RealEngineは3Dシーン再構成と新しいビュー合成技術を統合する新しい運転シミュレーションフレームワークである。
実世界のマルチモーダルセンサーデータを活用することで、RealEngineはバックグラウンドシーンとフォアグラウンドトラフィック参加者を別々に再構築し、非常に多様な現実的なトラフィックシナリオを実現する。
RealEngineは、非反応性シミュレーション、安全性テスト、マルチエージェントインタラクションの3つの重要な駆動シミュレーションカテゴリをサポートしている。
- 参考スコア(独自算出の注目度): 45.42418090733243
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Driving simulation plays a crucial role in developing reliable driving agents by providing controlled, evaluative environments. To enable meaningful assessments, a high-quality driving simulator must satisfy several key requirements: multi-modal sensing capabilities (e.g., camera and LiDAR) with realistic scene rendering to minimize observational discrepancies; closed-loop evaluation to support free-form trajectory behaviors; highly diverse traffic scenarios for thorough evaluation; multi-agent cooperation to capture interaction dynamics; and high computational efficiency to ensure affordability and scalability. However, existing simulators and benchmarks fail to comprehensively meet these fundamental criteria. To bridge this gap, this paper introduces RealEngine, a novel driving simulation framework that holistically integrates 3D scene reconstruction and novel view synthesis techniques to achieve realistic and flexible closed-loop simulation in the driving context. By leveraging real-world multi-modal sensor data, RealEngine reconstructs background scenes and foreground traffic participants separately, allowing for highly diverse and realistic traffic scenarios through flexible scene composition. This synergistic fusion of scene reconstruction and view synthesis enables photorealistic rendering across multiple sensor modalities, ensuring both perceptual fidelity and geometric accuracy. Building upon this environment, RealEngine supports three essential driving simulation categories: non-reactive simulation, safety testing, and multi-agent interaction, collectively forming a reliable and comprehensive benchmark for evaluating the real-world performance of driving agents.
- Abstract(参考訳): 運転シミュレーションは、制御された評価環境を提供することにより、信頼性の高い運転エージェントの開発において重要な役割を果たす。
有意義な評価を可能にするためには、マルチモーダルセンシング機能(例えば、カメラやLiDAR)と現実的なシーンレンダリングを併用して、観察上の不一致を最小限に抑えること、自由形式の軌跡行動をサポートするクローズループ評価、徹底的な評価のための高度に多様なトラフィックシナリオ、対話ダイナミクスをキャプチャするためのマルチエージェント協調、可用性とスケーラビリティを確保するための高い計算効率など、高品質な駆動シミュレータがいくつかの重要な要件を満たす必要がある。
しかし、既存のシミュレータやベンチマークはこれらの基本的な基準を包括的に満たしていない。
このギャップを埋めるため,本研究では3次元シーン再構成と新しいビュー合成技術を統合し,現実的でフレキシブルなクローズループシミュレーションを実現する新しい運転シミュレーションフレームワークであるRealEngineを紹介する。
実世界のマルチモーダルセンサデータを活用することで、RealEngineはバックグラウンドシーンとフォアグラウンドトラフィック参加者を別々に再構築し、フレキシブルなシーン構成を通じて、高度に多様な現実的なトラフィックシナリオを実現する。
シーン再構成とビュー合成の相乗的融合により、複数のセンサモードにわたる光リアルレンダリングが可能となり、知覚的忠実度と幾何学的精度の両方が保証される。
この環境を基盤として、RealEngineは、非反応性シミュレーション、安全性テスト、マルチエージェントインタラクションという3つの重要な駆動シミュレーションカテゴリをサポートし、駆動エージェントの実際のパフォーマンスを評価するための信頼性と総合的なベンチマークをまとめる。
関連論文リスト
- Unraveling the Effects of Synthetic Data on End-to-End Autonomous Driving [35.49042205415498]
SceneCrafterは3Dガウススプレイティングに基づくリアルでインタラクティブで効率的な自動運転シミュレータである(3DGS)。
SceneCrafterは、さまざまなトラフィックシナリオにわたる現実的な運転ログを効率的に生成する。
また、エンドツーエンドモデルの堅牢なクローズドループ評価を可能にする。
論文 参考訳(メタデータ) (2025-03-23T15:27:43Z) - DrivingSphere: Building a High-fidelity 4D World for Closed-loop Simulation [54.02069690134526]
本研究では,現実的でクローズドループなシミュレーションフレームワークであるDrivingSphereを提案する。
その中核となる考え方は、4Dの世界表現を構築し、実生活と制御可能な運転シナリオを生成することである。
動的で現実的なシミュレーション環境を提供することで、DrivingSphereは自律運転アルゴリズムの包括的なテストと検証を可能にする。
論文 参考訳(メタデータ) (2024-11-18T03:00:33Z) - Augmented Reality based Simulated Data (ARSim) with multi-view consistency for AV perception networks [47.07188762367792]
ARSimは3次元合成オブジェクトを用いた実写多視点画像データの拡張を目的としたフレームワークである。
実データを用いて簡易な仮想シーンを構築し,その内部に戦略的に3D合成資産を配置する。
結果として得られたマルチビュー一貫性のあるデータセットは、自動運転車のためのマルチカメラ知覚ネットワークのトレーニングに使用される。
論文 参考訳(メタデータ) (2024-03-22T17:49:11Z) - CADSim: Robust and Scalable in-the-wild 3D Reconstruction for
Controllable Sensor Simulation [44.83732884335725]
センサシミュレーションでは、車などの交通参加者を高品質な外観と明瞭な幾何学でモデル化する。
現在の再構築アプローチは、その広さとノイズのために、Wildのセンサーデータに苦労している。
本稿では,車体形状を自動再構成するために,CADモデルの小さなセットと微分レンダリングを併用したCADSimを提案する。
論文 参考訳(メタデータ) (2023-11-02T17:56:59Z) - Generative AI-empowered Simulation for Autonomous Driving in Vehicular
Mixed Reality Metaverses [130.15554653948897]
車両混合現実(MR)メタバースでは、物理的実体と仮想実体の間の距離を克服することができる。
現実的なデータ収集と物理世界からの融合による大規模交通・運転シミュレーションは困難かつコストがかかる。
生成AIを利用して、無制限の条件付きトラフィックを合成し、シミュレーションでデータを駆動する自律運転アーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-02-16T16:54:10Z) - VISTA 2.0: An Open, Data-driven Simulator for Multimodal Sensing and
Policy Learning for Autonomous Vehicles [131.2240621036954]
VISTAはオープンソースのデータ駆動シミュレータで、複数のタイプのセンサーを自律走行車に組み込む。
高忠実で実世界のデータセットを使用して、VISTAはRGBカメラ、3D LiDAR、イベントベースのカメラを表現し、シミュレートする。
センサタイプ毎に知覚制御ポリシーをトレーニングし,テストする能力を示し,フルスケールの自律走行車への展開を通じて,このアプローチのパワーを示す。
論文 参考訳(メタデータ) (2021-11-23T18:58:10Z) - Multi-Modal Fusion Transformer for End-to-End Autonomous Driving [59.60483620730437]
画像表現とLiDAR表現を注目で統合する,新しいマルチモードフュージョントランスフォーマであるTransFuserを提案する。
本手法は, 衝突を76%低減しつつ, 最先端駆動性能を実現する。
論文 参考訳(メタデータ) (2021-04-19T11:48:13Z) - TrafficSim: Learning to Simulate Realistic Multi-Agent Behaviors [74.67698916175614]
リアル交通シミュレーションのためのマルチエージェント行動モデルであるTrafficSimを提案する。
特に、暗黙の潜在変数モデルを利用して、共同アクターポリシーをパラメータ化する。
TrafficSimは、多様なベースラインと比較して、より現実的で多様なトラフィックシナリオを生成します。
論文 参考訳(メタデータ) (2021-01-17T00:29:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。