論文の概要: XLD: A Cross-Lane Dataset for Benchmarking Novel Driving View Synthesis
- arxiv url: http://arxiv.org/abs/2406.18360v3
- Date: Wed, 07 May 2025 15:25:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-08 19:07:35.696914
- Title: XLD: A Cross-Lane Dataset for Benchmarking Novel Driving View Synthesis
- Title(参考訳): XLD:新しい駆動ビュー合成のベンチマークのためのクロスレーンデータセット
- Authors: Hao Li, Chenming Wu, Ming Yuan, Yan Zhang, Chen Zhao, Chunyu Song, Haocheng Feng, Errui Ding, Dingwen Zhang, Jingdong Wang,
- Abstract要約: 本稿では,新しい駆動ビュー合成評価のための合成データセットを提案する。
トレーニングコースから逸脱した画像を1~4ドル(約1,400円)で撮影する。
我々は、フロントオンリーおよびマルチカメラ設定下で、既存のNVSアプローチを評価するための最初の現実的なベンチマークを確立する。
- 参考スコア(独自算出の注目度): 84.23233209017192
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Comprehensive testing of autonomous systems through simulation is essential to ensure the safety of autonomous driving vehicles. This requires the generation of safety-critical scenarios that extend beyond the limitations of real-world data collection, as many of these scenarios are rare or rarely encountered on public roads. However, evaluating most existing novel view synthesis (NVS) methods relies on sporadic sampling of image frames from the training data, comparing the rendered images with ground-truth images. Unfortunately, this evaluation protocol falls short of meeting the actual requirements in closed-loop simulations. Specifically, the true application demands the capability to render novel views that extend beyond the original trajectory (such as cross-lane views), which are challenging to capture in the real world. To address this, this paper presents a synthetic dataset for novel driving view synthesis evaluation, which is specifically designed for autonomous driving simulations. This unique dataset includes testing images captured by deviating from the training trajectory by $1-4$ meters. It comprises six sequences that cover various times and weather conditions. Each sequence contains $450$ training images, $120$ testing images, and their corresponding camera poses and intrinsic parameters. Leveraging this novel dataset, we establish the first realistic benchmark for evaluating existing NVS approaches under front-only and multicamera settings. The experimental findings underscore the significant gap in current approaches, revealing their inadequate ability to fulfill the demanding prerequisites of cross-lane or closed-loop simulation.
- Abstract(参考訳): 自動運転車の安全性を確保するためには,シミュレーションによる総合的な自律システムのテストが不可欠である。
これは、現実世界のデータ収集の限界を超えて、安全クリティカルなシナリオを生成する必要がある。
しかし、既存の新しいビュー合成法(NVS)の評価手法は、トレーニングデータから画像フレームの散発的サンプリングに依存し、レンダリングされた画像と接地構造画像を比較している。
残念ながら、この評価プロトコルはクローズドループシミュレーションの実際の要件を満たしていない。
具体的には、真のアプリケーションは、(クロスレーンビューのような)オリジナルの軌跡を越えて広がる新しいビューをレンダリングする能力を必要とします。
そこで本研究では,自律運転シミュレーションに特化して設計された,新しい運転視点合成評価のための合成データセットを提案する。
このユニークなデータセットには、トレーニング軌跡から逸脱した画像を1-4$mの速度で撮影するテストが含まれている。
様々な時間と気象条件をカバーする6つのシーケンスから構成される。
各シーケンスには、トレーニング用画像450ドル、テスト用画像120ドル、対応するカメラのポーズと固有のパラメータが含まれている。
この新たなデータセットを活用することで、フロントオンリーおよびマルチカメラ設定下で既存のNVSアプローチを評価するための、最初の現実的なベンチマークを確立します。
実験の結果は、現在のアプローチにおける大きなギャップを浮き彫りにして、クロスレーンやクローズドループシミュレーションの要求される前提条件を満たす能力が不十分であることを明らかにした。
関連論文リスト
- Para-Lane: Multi-Lane Dataset Registering Parallel Scans for Benchmarking Novel View Synthesis [5.281171924360707]
実世界のスキャンから得られた新しい駆動ビューデータセットに対して,並列スキャンを登録する最初のマルチレーンデータセットを提案する。
データセットは、16,000のフロントビューイメージ、64,000のサラウンドビューイメージ、16,000のLiDARフレームを含む、25の関連するシーケンスからなる。
異なる車線, 距離の異なる様々なテストシナリオにおいて, 既存手法の性能を評価する。
論文 参考訳(メタデータ) (2025-02-21T18:03:56Z) - Extrapolated Urban View Synthesis Benchmark [53.657271730352214]
光シミュレーターは視覚中心型自動運転車(AV)の訓練と評価に不可欠である
中心となるのはノベルビュー合成(英語版)(NVS)であり、これはAVの広範かつ連続的なポーズ分布に対応するために、様々な目に見えない視点を生成する能力である。
近年の3次元ガウス・スプラッティングのような放射場の発展は、リアルタイムなリアルタイムレンダリングを実現し、大規模ドライビングシーンのモデリングに広く利用されている。
自動運転車と都市ロボットシミュレーション技術の進歩を支援するために、データを公開します。
論文 参考訳(メタデータ) (2024-12-06T18:41:39Z) - DrivingSphere: Building a High-fidelity 4D World for Closed-loop Simulation [54.02069690134526]
本研究では,現実的でクローズドループなシミュレーションフレームワークであるDrivingSphereを提案する。
その中核となる考え方は、4Dの世界表現を構築し、実生活と制御可能な運転シナリオを生成することである。
動的で現実的なシミュレーション環境を提供することで、DrivingSphereは自律運転アルゴリズムの包括的なテストと検証を可能にする。
論文 参考訳(メタデータ) (2024-11-18T03:00:33Z) - LoLI-Street: Benchmarking Low-Light Image Enhancement and Beyond [37.47964043913622]
先進都市における街路シーンの低照度画像と高露光画像が33k対のLoLI-Street(Low-Light Images of Streets)を新たに導入した。
LoLI-Streetデータセットはまた、実環境下でLLIEモデルをテストするための1,000の実際の低照度テストイメージも備えている。
論文 参考訳(メタデータ) (2024-10-13T13:11:56Z) - Querying Labeled Time Series Data with Scenario Programs [0.0]
本稿では,実世界のラベル付き時系列データ項目とシミュレーションシナリオとの一致を形式的に定義する。
自動運転車の領域を超えてスケーラブルなマッチングを実現するための定義とアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-06-25T15:15:27Z) - NAVSIM: Data-Driven Non-Reactive Autonomous Vehicle Simulation and Benchmarking [65.24988062003096]
我々は,視覚に基づく運転ポリシーをベンチマークするフレームワークであるNAVSIMを提案する。
我々のシミュレーションは非反応性であり、評価された政策と環境は互いに影響を与えない。
NAVSIMはCVPR 2024で開催され、143チームが433のエントリーを提出し、いくつかの新たな洞察を得た。
論文 参考訳(メタデータ) (2024-06-21T17:59:02Z) - Street-View Image Generation from a Bird's-Eye View Layout [95.36869800896335]
近年,Bird's-Eye View (BEV) の知覚が注目されている。
自動運転のためのデータ駆動シミュレーションは、最近の研究の焦点となっている。
本稿では,現実的かつ空間的に一貫した周辺画像を合成する条件生成モデルであるBEVGenを提案する。
論文 参考訳(メタデータ) (2023-01-11T18:39:34Z) - Cross-Camera Trajectories Help Person Retrieval in a Camera Network [124.65912458467643]
既存の手法では、純粋な視覚的マッチングや時間的制約を考慮することが多いが、カメラネットワークの空間情報は無視する。
本稿では,時間的情報と空間的情報を統合したクロスカメラ生成に基づく歩行者検索フレームワークを提案する。
本手法の有効性を検証するため,最初のカメラ横断歩行者軌跡データセットを構築した。
論文 参考訳(メタデータ) (2022-04-27T13:10:48Z) - Online Clustering-based Multi-Camera Vehicle Tracking in Scenarios with
overlapping FOVs [2.6365690297272617]
マルチターゲットマルチカメラ(MTMC)車両追跡は,視覚的交通監視において重要な課題である。
本稿では,MTMC追跡のための新しい低遅延オンライン手法を提案する。
論文 参考訳(メタデータ) (2021-02-08T09:55:55Z) - Vehicle Position Estimation with Aerial Imagery from Unmanned Aerial
Vehicles [4.555256739812733]
この研究は、航空画像から正確な車両の位置を推定する過程を記述する。
この目的のために最先端のディープニューラルネットワークMask-RCNNが適用される。
平均20cmの精度は、飛行高度100m、フルHD解像度、フレーム単位の検出で達成できる。
論文 参考訳(メタデータ) (2020-04-17T12:29:40Z) - SimAug: Learning Robust Representations from Simulation for Trajectory
Prediction [78.91518036949918]
本研究では,シミュレーション学習データの拡張により,ロバスト表現を学習する新しい手法を提案する。
我々は,SimAugが実世界の3つのベンチマークで有望な結果を得ることを示す。
論文 参考訳(メタデータ) (2020-04-04T21:22:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。