論文の概要: LoLI-Street: Benchmarking Low-Light Image Enhancement and Beyond
- arxiv url: http://arxiv.org/abs/2410.09831v1
- Date: Sun, 13 Oct 2024 13:11:56 GMT
- ステータス: 処理完了
- システム内更新日: 2024-10-30 04:42:49.004934
- Title: LoLI-Street: Benchmarking Low-Light Image Enhancement and Beyond
- Title(参考訳): LoLI-Street: 低照度画像の強調とそれ以上のベンチマーク
- Authors: Md Tanvir Islam, Inzamamul Alam, Simon S. Woo, Saeed Anwar, IK Hyun Lee, Khan Muhammad,
- Abstract要約: 先進都市における街路シーンの低照度画像と高露光画像が33k対のLoLI-Street(Low-Light Images of Streets)を新たに導入した。
LoLI-Streetデータセットはまた、実環境下でLLIEモデルをテストするための1,000の実際の低照度テストイメージも備えている。
- 参考スコア(独自算出の注目度): 37.47964043913622
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Low-light image enhancement (LLIE) is essential for numerous computer vision tasks, including object detection, tracking, segmentation, and scene understanding. Despite substantial research on improving low-quality images captured in underexposed conditions, clear vision remains critical for autonomous vehicles, which often struggle with low-light scenarios, signifying the need for continuous research. However, paired datasets for LLIE are scarce, particularly for street scenes, limiting the development of robust LLIE methods. Despite using advanced transformers and/or diffusion-based models, current LLIE methods struggle in real-world low-light conditions and lack training on street-scene datasets, limiting their effectiveness for autonomous vehicles. To bridge these gaps, we introduce a new dataset LoLI-Street (Low-Light Images of Streets) with 33k paired low-light and well-exposed images from street scenes in developed cities, covering 19k object classes for object detection. LoLI-Street dataset also features 1,000 real low-light test images for testing LLIE models under real-life conditions. Furthermore, we propose a transformer and diffusion-based LLIE model named "TriFuse". Leveraging the LoLI-Street dataset, we train and evaluate our TriFuse and SOTA models to benchmark on our dataset. Comparing various models, our dataset's generalization feasibility is evident in testing across different mainstream datasets by significantly enhancing images and object detection for practical applications in autonomous driving and surveillance systems. The complete code and dataset is available on https://github.com/tanvirnwu/TriFuse.
- Abstract(参考訳): 低照度画像強調(LLIE)は、オブジェクト検出、追跡、セグメンテーション、シーン理解など、多数のコンピュータビジョンタスクに必須である。
未公開の環境で撮影された低画質画像の改善に関するかなりの研究にもかかわらず、明快なビジョンは、しばしば低照度シナリオに苦しむ自動運転車にとって重要なものであり、継続的な研究の必要性を示している。
しかし、LLIE用のペアデータセットは、特にストリートシーンでは不足しており、堅牢なLLIEメソッドの開発が制限されている。
高度なトランスフォーマーと/または拡散ベースモデルを使っているにもかかわらず、現在のLLIE手法は現実世界の低照度環境で苦労し、ストリートシーンのデータセットのトレーニングを欠いているため、自動運転車の有効性を制限している。
これらのギャップを埋めるために、先進都市の街路シーンから33k対の低照度画像と高露光画像を合成したLoLI-Street(Low-Light Images of Streets)を新たに導入し、オブジェクト検出のための19kのオブジェクトクラスをカバーした。
LoLI-Streetデータセットはまた、実環境下でLLIEモデルをテストするための1,000の実際の低照度テストイメージも備えている。
さらに, 変圧器および拡散型LLIEモデル"TriFuse"を提案する。
LoLI-Streetデータセットを活用して、データセット上でベンチマークするために、TriFuseとSOTAモデルをトレーニングし、評価します。
様々なモデルと比較すると、我々のデータセットの一般化実現可能性は、自律運転および監視システムにおける実践的な応用のために、画像とオブジェクト検出を著しく向上させることにより、さまざまな主流データセット間でのテストにおいて明らかである。
完全なコードとデータセットはhttps://github.com/tanvirnwu/TriFuse.comで入手できる。
関連論文リスト
- HUE Dataset: High-Resolution Event and Frame Sequences for Low-Light Vision [16.432164340779266]
低照度条件下での高分解能イベントとフレームシーケンスのコレクションであるHUEデータセットを紹介する。
私たちのデータセットには、屋内、都市景観、トワイライト、夜、運転、制御されたシナリオを含む106のシーケンスが含まれています。
我々は定性評価と定量的評価の両方を用いて、最先端の低照度化と事象に基づく画像再構成手法を評価する。
論文 参考訳(メタデータ) (2024-10-24T21:15:15Z) - BVI-RLV: A Fully Registered Dataset and Benchmarks for Low-Light Video Enhancement [56.97766265018334]
本稿では,2つの異なる低照度条件下での様々な動きシナリオを持つ40のシーンからなる低照度映像データセットを提案する。
我々は、プログラム可能なモータードリーを用いて、通常の光で捉えた完全に登録された地上真実データを提供し、異なる光レベルにわたるピクセルワイドフレームアライメントのための画像ベースアプローチによりそれを洗練する。
実験の結果,Low-light Video enhancement (LLVE) における完全登録ビデオペアの重要性が示された。
論文 参考訳(メタデータ) (2024-07-03T22:41:49Z) - XLD: A Cross-Lane Dataset for Benchmarking Novel Driving View Synthesis [84.23233209017192]
本稿では,自律走行シミュレーションに特化して設計された新しい駆動ビュー合成データセットとベンチマークを提案する。
データセットには、トレーニング軌跡から1-4mずれて取得した画像のテストが含まれているため、ユニークなものだ。
我々は、フロントオンリーおよびマルチカメラ設定下で、既存のNVSアプローチを評価するための最初の現実的なベンチマークを確立する。
論文 参考訳(メタデータ) (2024-06-26T14:00:21Z) - LARD - Landing Approach Runway Detection -- Dataset for Vision Based
Landing [2.7400353551392853]
本稿では,接近・着陸時の滑走路検出のための高品質な空中画像のデータセットを提案する。
データセットの大部分は合成画像で構成されていますが、実際の着陸映像から手動でラベル付けされた画像も提供しています。
このデータセットは、データセットの品質の分析や、検出タスクに対処するモデルの開発など、さらなる研究の道を開く。
論文 参考訳(メタデータ) (2023-04-05T08:25:55Z) - Ultra-High-Definition Low-Light Image Enhancement: A Benchmark and
Transformer-Based Method [51.30748775681917]
低照度画像強調(LLIE)の課題を考察し,4K解像度と8K解像度の画像からなる大規模データベースを導入する。
我々は、系統的なベンチマーク研究を行い、現在のLLIEアルゴリズムと比較する。
第2のコントリビューションとして,変換器をベースとした低照度化手法であるLLFormerを紹介する。
論文 参考訳(メタデータ) (2022-12-22T09:05:07Z) - SIMBAR: Single Image-Based Scene Relighting For Effective Data
Augmentation For Automated Driving Vision Tasks [2.974889834426778]
本稿では,単一のイメージを入力として動作可能な,新しい画像ベースのリライトパイプラインSIMBARを提案する。
我々の知る限りでは、1つの画像から明示的な幾何学的表現を活用するシーンライティングに関する先行研究はない。
自動走行視覚タスクにおいて、SIMBARをデータ拡張に活用する利点を更に検証し、効果的に定量化する。
論文 参考訳(メタデータ) (2022-04-01T18:11:43Z) - Lighting the Darkness in the Deep Learning Era [118.35081853500411]
低照度画像強調(LLIE)は、照明の弱い環境で撮影された画像の知覚や解釈性を改善することを目的としている。
この分野における最近の進歩は、ディープラーニングベースのソリューションが支配的です。
アルゴリズム分類から未解決の未解決問題まで,さまざまな側面をカバーする包括的な調査を行う。
論文 参考訳(メタデータ) (2021-04-21T19:12:19Z) - Stereo Matching by Self-supervision of Multiscopic Vision [65.38359887232025]
カメラ位置の整列で撮影した複数の画像を利用したステレオマッチングのための新しい自己監視フレームワークを提案する。
ネットワークを最適化するために、クロスフォトメトリックロス、不確実性を認識した相互監督損失、および新しい平滑性損失が導入されます。
我々のモデルは、KITTIデータセット上の以前の教師なし手法よりも、より良い不均一性マップを得る。
論文 参考訳(メタデータ) (2021-04-09T02:58:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。