論文の概要: DarkDriving: A Real-World Day and Night Aligned Dataset for Autonomous Driving in the Dark Environment
- arxiv url: http://arxiv.org/abs/2603.18067v1
- Date: Wed, 18 Mar 2026 03:36:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-20 17:19:05.737835
- Title: DarkDriving: A Real-World Day and Night Aligned Dataset for Autonomous Driving in the Dark Environment
- Title(参考訳): 暗黒環境における自律運転のためのリアルタイム昼夜配データセット「DarkDriving」
- Authors: Wuqi Wang, Haochen Yang, Baolu Li, Jiaqi Sun, Xiangmo Zhao, Zhigang Xu, Qing Guo, Haigen Min, Tianyun Zhang, Hongkai Yu,
- Abstract要約: 我々は、自動運転の低照度化を調査するための新しいベンチマークデータセット(DarkDriving)を提案する。
ダークドライブは、低照度向上、一般化された低照度向上、暗黒環境における2次元検出のための低照度強化、自律運転の3次元検出を含む4つの認知関連タスクを導入している。
- 参考スコア(独自算出の注目度): 34.448642853728536
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The low-light conditions are challenging to the vision-centric perception systems for autonomous driving in the dark environment. In this paper, we propose a new benchmark dataset (named DarkDriving) to investigate the low-light enhancement for autonomous driving. The existing real-world low-light enhancement benchmark datasets can be collected by controlling various exposures only in small-ranges and static scenes. The dark images of the current nighttime driving datasets do not have the precisely aligned daytime counterparts. The extreme difficulty to collect a real-world day and night aligned dataset in the dynamic driving scenes significantly limited the research in this area. With a proposed automatic day-night Trajectory Tracking based Pose Matching (TTPM) method in a large real-world closed driving test field (area: 69 acres), we collected the first real-world day and night aligned dataset for autonomous driving in the dark environment. The DarkDriving dataset has 9,538 day and night image pairs precisely aligned in location and spatial contents, whose alignment error is in just several centimeters. For each pair, we also manually label the object 2D bounding boxes. DarkDriving introduces four perception related tasks, including low-light enhancement, generalized low-light enhancement, and low-light enhancement for 2D detection and 3D detection of autonomous driving in the dark environment. The experimental results show that our DarkDriving dataset provides a comprehensive benchmark for evaluating low-light enhancement for autonomous driving and it can also be generalized to enhance dark images and promote detection in some other low-light driving environment, such as nuScenes.
- Abstract(参考訳): 低照度条件は、暗黒環境での自動運転のための視覚中心の認識システムにとって困難である。
本稿では,自動運転の低照度化を検討するために,新しいベンチマークデータセット(DarkDriving)を提案する。
既存の実世界の低照度ベンチマークデータセットは、小さな範囲と静的なシーンでのみ、さまざまな露光を制御することで収集できる。
現在の夜間運転データセットの暗い画像は、正確に整列された昼間運転データセットを持っていない。
リアルタイムの昼夜一致のデータセットを動的運転シーンで収集することの難しさは、この分野の研究を著しく制限した。
大規模な実世界クローズド運転試験場(69エーカー)における自動昼夜追尾法(TTPM)による夜間追尾法(TTPM)の提案により,暗環境下での自律走行のための実世界初となる昼夜整列データセットを収集した。
DarkDrivingデータセットは、9,538日と夜のイメージペアを位置と空間のコンテンツで正確に整列し、アライメントエラーはわずか数センチである。
それぞれのペアについて、オブジェクト2D境界ボックスを手動でラベル付けします。
ダークドライブは、低照度向上、一般化された低照度向上、暗黒環境における2次元検出のための低照度強化、自律運転の3次元検出を含む4つの認知関連タスクを導入している。
実験結果から、我々のDarkDrivingデータセットは、自動運転の低照度向上を評価するための総合的なベンチマークを提供するとともに、暗黒画像の強化や、nuScenesなどの他の低照度運転環境における検出を促進するために一般化可能であることが示された。
関連論文リスト
- Spatial Retrieval Augmented Autonomous Driving [81.39665750557526]
既存の自動運転システムは、環境認識のためのセンサーに頼っている。
本稿では,オフラインで取得した地理画像を付加入力として導入する空間検索パラダイムを提案する。
この新しい自動運転パラダイムのさらなる研究のために、データセットキュレーションコード、データ、ベンチマークをオープンソースにします。
論文 参考訳(メタデータ) (2025-12-07T14:40:49Z) - NiteDR: Nighttime Image De-Raining with Cross-View Sensor Cooperative Learning for Dynamic Driving Scenes [49.92839157944134]
夜間の運転シーンでは、不十分で不均一な照明が暗闇の中でシーンを遮蔽し、画質と可視性が低下する。
雨天時の運転シーンに適した画像デライニング・フレームワークを開発した。
雨の人工物を取り除き、風景表現を豊かにし、有用な情報を復元することを目的としている。
論文 参考訳(メタデータ) (2024-02-28T09:02:33Z) - STEPS: Joint Self-supervised Nighttime Image Enhancement and Depth
Estimation [12.392842482031558]
本研究では,夜間画像強調器と深度推定器を両課題に使用せずに共同で学習する手法を提案する。
提案手法は,新たに提案された不確実な画素マスキング戦略を用いて,2つの自己監督タスクを密に絡み合わせる。
提案手法をnuScenesとRobotCarの2つの確立したデータセットでベンチマークする。
論文 参考訳(メタデータ) (2023-02-02T18:59:47Z) - aiMotive Dataset: A Multimodal Dataset for Robust Autonomous Driving
with Long-Range Perception [0.0]
このデータセットは、同期して校正されたLiDAR、カメラ、および360度の視野をカバーするレーダーセンサーを備えた176のシーンで構成されている。
収集したデータは、昼間、夜、雨の間に、高速道路、都市、郊外で撮影された。
我々は3次元物体検出のための一次元・多モードベースラインモデルを訓練した。
論文 参考訳(メタデータ) (2022-11-17T10:19:59Z) - Ithaca365: Dataset and Driving Perception under Repeated and Challenging
Weather Conditions [0.0]
我々は、新しいデータ収集プロセスを通じて、堅牢な自律運転を可能にする新しいデータセットを提案する。
データセットには、高精度GPS/INSとともに、カメラとLiDARセンサーからの画像と点雲が含まれている。
道路・オブジェクトのアモーダルセグメンテーションにおけるベースラインの性能を解析することにより,このデータセットの特異性を実証する。
論文 参考訳(メタデータ) (2022-08-01T22:55:32Z) - LiDAR-as-Camera for End-to-End Driving [1.0323063834827415]
Ouster LiDARは、深度、強度、周囲の放射線チャンネルを備えたサラウンドビューのLiDARイメージを出力することができる。
これらの測定は、同じセンサーから始まり、時間と空間で完全に整列する。
このようなLiDAR画像は、実車走行追従作業に十分であり、テスト条件下では少なくともカメラベースモデルに対して等しく動作することを示す。
研究の第2の方向において、非政治予測シーケンスの時間的スムーズさは、一般的に使用される平均絶対誤差と実際のオンライン運転能力と等しく相関することが明らかとなった。
論文 参考訳(メタデータ) (2022-06-30T10:06:49Z) - Benchmarking the Robustness of LiDAR-Camera Fusion for 3D Object
Detection [58.81316192862618]
自律運転における3D知覚のための2つの重要なセンサーは、カメラとLiDARである。
これら2つのモダリティを融合させることで、3次元知覚モデルの性能を大幅に向上させることができる。
我々は、最先端の核融合法を初めてベンチマークした。
論文 参考訳(メタデータ) (2022-05-30T09:35:37Z) - DSEC: A Stereo Event Camera Dataset for Driving Scenarios [55.79329250951028]
本研究は,イベントカメラを用いた初の高分解能大規模ステレオデータセットを提案する。
データセットは、様々な照明条件で駆動により収集された53のシーケンスを含む。
イベントベースステレオアルゴリズムの開発と評価のための基礎的な真相の相違を提供する。
論文 参考訳(メタデータ) (2021-03-10T12:10:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。