論文の概要: How Real is CARLAs Dynamic Vision Sensor? A Study on the Sim-to-Real Gap in Traffic Object Detection
- arxiv url: http://arxiv.org/abs/2506.13722v1
- Date: Mon, 16 Jun 2025 17:27:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-17 17:28:49.182997
- Title: How Real is CARLAs Dynamic Vision Sensor? A Study on the Sim-to-Real Gap in Traffic Object Detection
- Title(参考訳): CARLAのダイナミック・ビジョン・センサはどこまでリアルか?交通物体検出におけるシミュレート・トゥ・リアル・ギャップに関する研究
- Authors: Kaiyuan Tan, Pavan Kumar B N, Bharatesh Chakravarthi,
- Abstract要約: イベントカメラは、交差点でのリアルタイム物体検出に適している。
堅牢なイベントベース検出モデルの開発は、注釈付き現実世界データセットの可用性の制限によって妨げられている。
本研究では,CARLAs DVSを用いたイベントベース物体検出におけるsim-to-realギャップの定量的解析を行った。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Event cameras are gaining traction in traffic monitoring applications due to their low latency, high temporal resolution, and energy efficiency, which makes them well-suited for real-time object detection at traffic intersections. However, the development of robust event-based detection models is hindered by the limited availability of annotated real-world datasets. To address this, several simulation tools have been developed to generate synthetic event data. Among these, the CARLA driving simulator includes a built-in dynamic vision sensor (DVS) module that emulates event camera output. Despite its potential, the sim-to-real gap for event-based object detection remains insufficiently studied. In this work, we present a systematic evaluation of this gap by training a recurrent vision transformer model exclusively on synthetic data generated using CARLAs DVS and testing it on varying combinations of synthetic and real-world event streams. Our experiments show that models trained solely on synthetic data perform well on synthetic-heavy test sets but suffer significant performance degradation as the proportion of real-world data increases. In contrast, models trained on real-world data demonstrate stronger generalization across domains. This study offers the first quantifiable analysis of the sim-to-real gap in event-based object detection using CARLAs DVS. Our findings highlight limitations in current DVS simulation fidelity and underscore the need for improved domain adaptation techniques in neuromorphic vision for traffic monitoring.
- Abstract(参考訳): イベントカメラは、低レイテンシ、高時間分解能、エネルギー効率のため、トラフィック監視アプリケーションで注目を集めており、交通交差点でのリアルタイムオブジェクト検出に適している。
しかし、ロバストなイベントベースの検出モデルの開発は、注釈付き現実世界データセットの可用性の制限によって妨げられている。
これを解決するために、合成イベントデータを生成するためのいくつかのシミュレーションツールが開発されている。
CARLA駆動シミュレータには、イベントカメラ出力をエミュレートするDVS(Dynamic Vision Sensor)モジュールが内蔵されている。
その可能性にもかかわらず、事象に基づく物体検出のためのsim-to-realギャップは未だ十分に研究されていない。
本研究では,CARLAs DVSを用いて生成した合成データのみを学習し,合成イベントストリームと実世界のイベントストリームの様々な組み合わせでテストすることにより,このギャップの体系的評価を行う。
実験により, 合成データのみを訓練したモデルは, 実世界のデータの割合が増大するにつれて, 高い性能低下がみられた。
対照的に、実世界のデータに基づいて訓練されたモデルは、ドメイン間のより強力な一般化を示す。
本研究では,CARLAs DVSを用いたイベントベース物体検出におけるsim-to-realギャップの定量的解析を行った。
本研究は、現在のDVSシミュレーションの精度の限界を強調し、トラヒックモニタリングのためのニューロモルフィックビジョンにおけるドメイン適応技術の改善の必要性を強調した。
関連論文リスト
- Unraveling the Effects of Synthetic Data on End-to-End Autonomous Driving [35.49042205415498]
SceneCrafterは3Dガウススプレイティングに基づくリアルでインタラクティブで効率的な自動運転シミュレータである(3DGS)。
SceneCrafterは、さまざまなトラフィックシナリオにわたる現実的な運転ログを効率的に生成する。
また、エンドツーエンドモデルの堅牢なクローズドループ評価を可能にする。
論文 参考訳(メタデータ) (2025-03-23T15:27:43Z) - Synth It Like KITTI: Synthetic Data Generation for Object Detection in Driving Scenarios [3.30184292168618]
本稿では,LiDAR点雲上での3次元物体検出のためのCARLAシミュレータに基づくデータセット生成パイプラインを提案する。
我々は、合成データに基づいてオブジェクト検出器を訓練し、KITTIデータセットに強力な一般化能力を示すことができる。
論文 参考訳(メタデータ) (2025-02-20T22:27:42Z) - RaSim: A Range-aware High-fidelity RGB-D Data Simulation Pipeline for Real-world Applications [55.24463002889]
我々は深度データ合成に焦点をあて、レンジ対応RGB-Dデータシミュレーションパイプライン(RaSim)を開発した。
特に、実世界のセンサーの撮像原理を模倣して高忠実度深度データを生成する。
RaSimは、下流のRGB-D知覚タスクで微調整をすることなく、現実世界のシナリオに直接適用することができる。
論文 参考訳(メタデータ) (2024-04-05T08:52:32Z) - Are NeRFs ready for autonomous driving? Towards closing the real-to-simulation gap [6.393953433174051]
本稿では,実際のデータギャップに対処するための新しい視点を提案する。
自律運転環境における実シミュレーションデータギャップの大規模調査を初めて実施する。
シミュレーションデータに対するモデルロバスト性は顕著に向上し,実世界の性能も向上した。
論文 参考訳(メタデータ) (2024-03-24T11:09:41Z) - Augmented Reality based Simulated Data (ARSim) with multi-view consistency for AV perception networks [47.07188762367792]
ARSimは3次元合成オブジェクトを用いた実写多視点画像データの拡張を目的としたフレームワークである。
実データを用いて簡易な仮想シーンを構築し,その内部に戦略的に3D合成資産を配置する。
結果として得られたマルチビュー一貫性のあるデータセットは、自動運転車のためのマルチカメラ知覚ネットワークのトレーニングに使用される。
論文 参考訳(メタデータ) (2024-03-22T17:49:11Z) - Data-driven Camera and Lidar Simulation Models for Autonomous Driving: A Review from Generative Models to Volume Renderers [7.90336803821407]
本稿では,現在の最先端データ駆動カメラとLidarシミュレーションモデルとその評価手法について述べる。
生成モデルとボリュームの新たな視点から、モデルのスペクトルを探索する。
論文 参考訳(メタデータ) (2024-01-29T16:56:17Z) - Reinforcement Learning with Human Feedback for Realistic Traffic
Simulation [53.85002640149283]
効果的なシミュレーションの鍵となる要素は、人間の知識と整合した現実的な交通モデルの導入である。
本研究では,現実主義に対する人間の嗜好のニュアンスを捉えることと,多様な交通シミュレーションモデルを統合することの2つの主な課題を明らかにする。
論文 参考訳(メタデータ) (2023-09-01T19:29:53Z) - Learning to Simulate Realistic LiDARs [66.7519667383175]
リアルLiDARセンサのデータ駆動シミュレーションのためのパイプラインを提案する。
本モデルでは, 透明表面上の落下点などの現実的な効果を符号化できることが示される。
我々は2つの異なるLiDARセンサのモデルを学習し、それに従ってシミュレーションされたLiDARデータを改善する。
論文 参考訳(メタデータ) (2022-09-22T13:12:54Z) - Towards Scale Consistent Monocular Visual Odometry by Learning from the
Virtual World [83.36195426897768]
仮想データから絶対スケールを取得するための新しいフレームワークであるVRVOを提案する。
まず、モノクロ実画像とステレオ仮想データの両方を用いて、スケール対応の異種ネットワークをトレーニングする。
結果として生じるスケール一貫性の相違は、直接VOシステムと統合される。
論文 参考訳(メタデータ) (2022-03-11T01:51:54Z) - Cycle and Semantic Consistent Adversarial Domain Adaptation for Reducing
Simulation-to-Real Domain Shift in LiDAR Bird's Eye View [110.83289076967895]
ドメイン適応プロセス中に関心のある小さなオブジェクトの情報を保存するために,事前の意味分類を用いたサイクガンに基づくbevドメイン適応法を提案する。
生成したBEVの品質は,KITTI 3D Object Detection Benchmarkの最先端3Dオブジェクト検出フレームワークを用いて評価されている。
論文 参考訳(メタデータ) (2021-04-22T12:47:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。