論文の概要: Light the Night: A Multi-Condition Diffusion Framework for Unpaired Low-Light Enhancement in Autonomous Driving
- arxiv url: http://arxiv.org/abs/2404.04804v1
- Date: Sun, 7 Apr 2024 04:10:06 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-09 19:40:41.278780
- Title: Light the Night: A Multi-Condition Diffusion Framework for Unpaired Low-Light Enhancement in Autonomous Driving
- Title(参考訳): Light the Night: 自律運転における低照度向上のためのマルチコンディション拡散フレームワーク
- Authors: Jinlong Li, Baolu Li, Zhengzhong Tu, Xinyu Liu, Qing Guo, Felix Juefei-Xu, Runsheng Xu, Hongkai Yu,
- Abstract要約: LightDiffは、自動運転アプリケーションの低照度画像品質を高めるために設計されたフレームワークである。
深度マップ、RGB画像、テキストキャプションなど、様々なモードから入力重みを適応的に制御する新しいマルチコンディションアダプタが組み込まれている。
夜間の条件下での最先端の3D検出器の性能を著しく向上し、高い視覚的品質のスコアを達成できる。
- 参考スコア(独自算出の注目度): 45.97279394690308
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Vision-centric perception systems for autonomous driving have gained considerable attention recently due to their cost-effectiveness and scalability, especially compared to LiDAR-based systems. However, these systems often struggle in low-light conditions, potentially compromising their performance and safety. To address this, our paper introduces LightDiff, a domain-tailored framework designed to enhance the low-light image quality for autonomous driving applications. Specifically, we employ a multi-condition controlled diffusion model. LightDiff works without any human-collected paired data, leveraging a dynamic data degradation process instead. It incorporates a novel multi-condition adapter that adaptively controls the input weights from different modalities, including depth maps, RGB images, and text captions, to effectively illuminate dark scenes while maintaining context consistency. Furthermore, to align the enhanced images with the detection model's knowledge, LightDiff employs perception-specific scores as rewards to guide the diffusion training process through reinforcement learning. Extensive experiments on the nuScenes datasets demonstrate that LightDiff can significantly improve the performance of several state-of-the-art 3D detectors in night-time conditions while achieving high visual quality scores, highlighting its potential to safeguard autonomous driving.
- Abstract(参考訳): 自律運転のための視覚中心認識システムは、特にLiDARベースのシステムと比較して、コスト効率とスケーラビリティのために近年注目されている。
しかしながら、これらのシステムは低照度条件に苦しむことが多く、性能と安全性を損なう可能性がある。
そこで本稿では,自律運転アプリケーションにおける低照度画像品質の向上を目的とした,ドメインに適したフレームワークであるLightDiffを紹介する。
具体的には,多条件制御拡散モデルを用いる。
LightDiffは、人間が編集したペアデータなしで動作し、代わりに動的なデータ劣化プロセスを活用する。
奥行きマップ、RGB画像、テキストキャプションなど、様々なモードから入力重みを適応的に制御し、コンテキスト整合性を維持しながら暗黒シーンを効果的に照らし出す、新しいマルチコンディションアダプタが組み込まれている。
さらに、強調画像と検出モデルの知識を整合させるため、LightDiffでは、強化学習を通じて拡散訓練プロセスの指導に、知覚特異的スコアを報奨として採用している。
nuScenesデータセットの大規模な実験により、LightDiffは夜間の条件下での最先端の3D検出器の性能を大幅に向上し、高い視覚的品質のスコアを達成し、自動運転の保護の可能性を強調している。
関連論文リスト
- CodeEnhance: A Codebook-Driven Approach for Low-Light Image Enhancement [97.95330185793358]
低照度画像強調(LLIE)は、低照度画像を改善することを目的としている。
既存の手法では、様々な明るさ劣化からの回復の不確実性と、テクスチャと色情報の喪失という2つの課題に直面している。
我々は、量子化された先行値と画像の精細化を利用して、新しいエンハンスメント手法、CodeEnhanceを提案する。
論文 参考訳(メタデータ) (2024-04-08T07:34:39Z) - Zero-Reference Low-Light Enhancement via Physical Quadruple Priors [58.77377454210244]
本稿では,標準光画像のみをトレーニング可能な,ゼロ参照低光強調フレームワークを提案する。
このフレームワークは、画像にさかのぼる照明不変性を復元し、自動的に低照度化を実現します。
論文 参考訳(メタデータ) (2024-03-19T17:36:28Z) - NiteDR: Nighttime Image De-Raining with Cross-View Sensor Cooperative Learning for Dynamic Driving Scenes [49.92839157944134]
夜間の運転シーンでは、不十分で不均一な照明が暗闇の中でシーンを遮蔽し、画質と可視性が低下する。
雨天時の運転シーンに適した画像デライニング・フレームワークを開発した。
雨の人工物を取り除き、風景表現を豊かにし、有用な情報を復元することを目的としている。
論文 参考訳(メタデータ) (2024-02-28T09:02:33Z) - A Non-Uniform Low-Light Image Enhancement Method with Multi-Scale
Attention Transformer and Luminance Consistency Loss [11.585269110131659]
低照度画像強調は、薄暗い環境で収集された画像の知覚を改善することを目的としている。
既存の方法では、識別された輝度情報を適応的に抽出することができず、露光過多や露光過多を容易に引き起こすことができる。
MSATrというマルチスケールアテンション変換器を提案し,光バランスの局所的・グローバル的特徴を十分に抽出し,視覚的品質を向上させる。
論文 参考訳(メタデータ) (2023-12-27T10:07:11Z) - CLE Diffusion: Controllable Light Enhancement Diffusion Model [80.62384873945197]
制御可能な光拡張拡散モデル(CLE Diffusion)は、ユーザがリッチな制御性を提供するための新しい拡散フレームワークである。
条件付き拡散モデルを用いて構築された照明埋め込みは,ユーザが希望する明るさレベルを制御できるようにする。
論文 参考訳(メタデータ) (2023-08-13T09:05:56Z) - Diffusion in the Dark: A Diffusion Model for Low-Light Text Recognition [78.50328335703914]
ディフュージョン・イン・ザ・ダーク (Diffusion in the Dark, DiD) は、テキスト認識のための低照度画像再構成のための拡散モデルである。
実画像上での低照度テキスト認識において,Digital DiDがSOTAの低照度手法より優れていることを示す。
論文 参考訳(メタデータ) (2023-03-07T23:52:51Z) - Does Thermal data make the detection systems more reliable? [1.2891210250935146]
マルチモーダル協調フレームワークに基づく包括的検知システムを提案する。
このフレームワークは、RGB(ビジュアルカメラから)と熱(赤外線カメラから)の両方のデータから学習する。
実験の結果,精度の向上は名目上はいるものの,難易度と難易度は高いことがわかった。
論文 参考訳(メタデータ) (2021-11-09T15:04:34Z) - Bridge the Vision Gap from Field to Command: A Deep Learning Network
Enhancing Illumination and Details [17.25188250076639]
我々は,明るさを調整し,細部を同時に強化する2ストリームフレームワークNEIDを提案する。
提案手法は,光強調 (LE), 細粒化 (DR), 特徴拡散 (FF) モジュールの3つの部分から構成される。
論文 参考訳(メタデータ) (2021-01-20T09:39:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。