論文の概要: Learning to See in the Extremely Dark
- arxiv url: http://arxiv.org/abs/2506.21132v1
- Date: Thu, 26 Jun 2025 10:24:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-27 19:53:10.045623
- Title: Learning to See in the Extremely Dark
- Title(参考訳): 極暗で見ることを学ぶ
- Authors: Hai Jiang, Binhao Guan, Zhen Liu, Xiaohong Liu, Jian Yu, Zheng Liu, Songchen Han, Shuaicheng Liu,
- Abstract要約: 我々は、高解像度のRAW画像を生成することができるペア対ペアデータ合成パイプラインを提案する。
See-in-Extremely-Dark(SIED)と呼ばれる大規模なペアデータセットは、低照度RAW画像拡張アプローチのベンチマークに使用される。
非常に低SNR RAW入力から視覚的満足度を回復する拡散型フレームワークを提案する。
- 参考スコア(独自算出の注目度): 41.386150786725295
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning-based methods have made promising advances in low-light RAW image enhancement, while their capability to extremely dark scenes where the environmental illuminance drops as low as 0.0001 lux remains to be explored due to the lack of corresponding datasets. To this end, we propose a paired-to-paired data synthesis pipeline capable of generating well-calibrated extremely low-light RAW images at three precise illuminance ranges of 0.01-0.1 lux, 0.001-0.01 lux, and 0.0001-0.001 lux, together with high-quality sRGB references to comprise a large-scale paired dataset named See-in-the-Extremely-Dark (SIED) to benchmark low-light RAW image enhancement approaches. Furthermore, we propose a diffusion-based framework that leverages the generative ability and intrinsic denoising property of diffusion models to restore visually pleasing results from extremely low-SNR RAW inputs, in which an Adaptive Illumination Correction Module (AICM) and a color consistency loss are introduced to ensure accurate exposure correction and color restoration. Extensive experiments on the proposed SIED and publicly available benchmarks demonstrate the effectiveness of our method. The code and dataset are available at https://github.com/JianghaiSCU/SIED.
- Abstract(参考訳): 学習に基づく手法は、低照度RAW画像の強調に有望な進歩をもたらしたが、環境照度が0.0001ラックスまで低下する極暗のシーンでは、対応するデータセットが欠如しているため、まだ探索が続けられていない。
そこで本研究では、高画質のSee-in-the-Extremely-Dark(SIED)と呼ばれる大規模ペアリングデータセットを構成するための高品質なsRGB参照とともに、0.01-0.1 lux, 0.001-0.01 lux, 0.0001-0.001 luxの3つの正確な照度範囲で高精細のRAW画像を生成することができるペアリング対対データ合成パイプラインを提案する。
さらに、拡散モデルの生成能力と本質的な認知特性を活用して、極めて低SNR RAW入力から視覚的満足度を回復する拡散型フレームワークを提案し、適応照明補正モジュール(AICM)と色整合損失を導入し、正確な露光補正と色復元を確実にする。
提案したSIEDおよび公開ベンチマークの大規模な実験により,本手法の有効性が示された。
コードとデータセットはhttps://github.com/JianghaiSCU/SIED.comで公開されている。
関連論文リスト
- Enhancing Low-Light Images Using Infrared-Encoded Images [81.8710581927427]
従来の芸術は、主にピクセルワイド・ロスを用いて可視光スペクトルで捉えた低照度画像に焦点を当てていた。
我々は,赤外線カットオフフィルタを除去することにより,低照度環境下で撮影された画像の可視性を高める新しい手法を提案する。
論文 参考訳(メタデータ) (2023-07-09T08:29:19Z) - Advancing Unsupervised Low-light Image Enhancement: Noise Estimation, Illumination Interpolation, and Self-Regulation [55.07472635587852]
低光画像強調(LLIE)技術は、画像の詳細の保存とコントラストの強化に顕著な進歩をもたらした。
これらのアプローチは、動的ノイズを効率的に緩和し、様々な低照度シナリオを収容する上で、永続的な課題に直面する。
まず,低照度画像の雑音レベルを迅速かつ高精度に推定する方法を提案する。
次に、照明と入力の一般的な制約を満たすために、Learningable Illumination Interpolator (LII) を考案する。
論文 参考訳(メタデータ) (2023-05-17T13:56:48Z) - Instance Segmentation in the Dark [43.85818645776587]
暗黒領域のインスタンスセグメンテーションを深く見て、低照度推論精度を大幅に向上させるテクニックをいくつか導入する。
本稿では,適応重み付きダウンサンプリング層,スムーズな指向性畳み込みブロック,外乱抑制学習に依存する新しい学習手法を提案する。
実世界の低照度インスタンスセグメンテーションデータセットを,2万組以上の低照度/通常照度画像と,インスタンスレベルのピクセル単位のアノテーションでキャプチャする。
論文 参考訳(メタデータ) (2023-04-27T16:02:29Z) - KinD-LCE Curve Estimation And Retinex Fusion On Low-Light Image [7.280719886684936]
本稿では,低照度化のためのアルゴリズムを提案する。
KinD-LCEは、Retinex分解画像の照明マップを強化するために光曲線推定モジュールを使用する。
照明マップと反射マップ融合モジュールも提案され、画像の詳細を復元し、詳細損失を低減した。
論文 参考訳(メタデータ) (2022-07-19T11:49:21Z) - Degrade is Upgrade: Learning Degradation for Low-light Image Enhancement [52.49231695707198]
2段階の工程で細部と色を精錬しながら、内在的な劣化と低照度画像を照らし出す。
カラー画像の定式化に触発されて,まず低照度入力からの劣化を推定し,環境照明色の歪みをシミュレーションし,そのコンテンツを精錬して拡散照明色の損失を回復した。
LOL1000データセットではPSNRで0.95dB、ExDarkデータセットでは3.18%のmAPでSOTAを上回った。
論文 参考訳(メタデータ) (2021-03-19T04:00:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。