論文の概要: Ultra-High-Definition Low-Light Image Enhancement: A Benchmark and
Transformer-Based Method
- arxiv url: http://arxiv.org/abs/2212.11548v1
- Date: Thu, 22 Dec 2022 09:05:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-23 14:44:19.751440
- Title: Ultra-High-Definition Low-Light Image Enhancement: A Benchmark and
Transformer-Based Method
- Title(参考訳): 超高精細低光画像強調:ベンチマーク法と変圧器法
- Authors: Tao Wang, Kaihao Zhang, Tianrun Shen, Wenhan Luo, Bjorn Stenger, Tong
Lu
- Abstract要約: 低照度画像強調(LLIE)の課題を考察し,4K解像度と8K解像度の画像からなる大規模データベースを導入する。
我々は、系統的なベンチマーク研究を行い、現在のLLIEアルゴリズムと比較する。
第2のコントリビューションとして,変換器をベースとした低照度化手法であるLLFormerを紹介する。
- 参考スコア(独自算出の注目度): 51.30748775681917
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As the quality of optical sensors improves, there is a need for processing
large-scale images. In particular, the ability of devices to capture ultra-high
definition (UHD) images and video places new demands on the image processing
pipeline. In this paper, we consider the task of low-light image enhancement
(LLIE) and introduce a large-scale database consisting of images at 4K and 8K
resolution. We conduct systematic benchmarking studies and provide a comparison
of current LLIE algorithms. As a second contribution, we introduce LLFormer, a
transformer-based low-light enhancement method. The core components of LLFormer
are the axis-based multi-head self-attention and cross-layer attention fusion
block, which significantly reduces the linear complexity. Extensive experiments
on the new dataset and existing public datasets show that LLFormer outperforms
state-of-the-art methods. We also show that employing existing LLIE methods
trained on our benchmark as a pre-processing step significantly improves the
performance of downstream tasks, e.g., face detection in low-light conditions.
The source code and pre-trained models are available at
https://github.com/TaoWangzj/LLFormer.
- Abstract(参考訳): 光センサーの品質が向上するにつれて、大規模な画像を処理する必要がある。
特に、デバイスが超高精細画像(UHD)をキャプチャし、ビデオが画像処理パイプラインに新しい要求を配置する能力がある。
本稿では,低照度画像強調(LLIE)の課題を考察し,4Kおよび8K解像度の画像からなる大規模データベースを提案する。
体系的なベンチマーク研究を行い,llieアルゴリズムの比較を行った。
第2の貢献として,変換器を用いた低光度強調手法であるllformerを提案する。
LLFormerのコアコンポーネントは軸ベースのマルチヘッド自己アテンションと層間アテンション融合ブロックである。
新しいデータセットと既存の公開データセットに関する大規模な実験は、LLFormerが最先端のメソッドより優れていることを示している。
また,我々のベンチマークでトレーニングした既存のllieメソッドを前処理ステップとして使用することで,低照度での顔検出など,下流タスクのパフォーマンスが大幅に向上することを示す。
ソースコードと事前訓練されたモデルはhttps://github.com/TaoWangzj/LLFormer.comで入手できる。
関連論文リスト
- GLARE: Low Light Image Enhancement via Generative Latent Feature based Codebook Retrieval [80.96706764868898]
我々は、GLARE(Generative LAtent Feature based codebook Retrieval)を介して、新しい低照度画像強調(LLIE)ネットワークを提案する。
Invertible Latent Normalizing Flow (I-LNF) モジュールを開発し、LL特徴分布をNL潜在表現に整合させ、コードブック内の正しいコード検索を保証する。
さまざまなベンチマークデータセットと実世界のデータに対するGLAREの優れたパフォーマンスを確認する実験。
論文 参考訳(メタデータ) (2024-07-17T09:40:15Z) - CodeEnhance: A Codebook-Driven Approach for Low-Light Image Enhancement [97.95330185793358]
低照度画像強調(LLIE)は、低照度画像を改善することを目的としている。
既存の手法では、様々な明るさ劣化からの回復の不確実性と、テクスチャと色情報の喪失という2つの課題に直面している。
我々は、量子化された先行値と画像の精細化を利用して、新しいエンハンスメント手法、CodeEnhanceを提案する。
論文 参考訳(メタデータ) (2024-04-08T07:34:39Z) - Leveraging Representations from Intermediate Encoder-blocks for Synthetic Image Detection [13.840950434728533]
SID(State-of-the-art Synthetic Image Detection)研究は、基礎モデルからの特徴抽出の利点を強く証明している。
軽量ネットワークを介してCLIPの画像エンコーダの中間トランスフォーマーブロックから抽出した画像表現を利用する。
本手法は,20個のテストデータセットで評価し,平均+10.6%の絶対性能向上を示すことにより,最先端の手法と比較した。
論文 参考訳(メタデータ) (2024-02-29T12:18:43Z) - A Non-Uniform Low-Light Image Enhancement Method with Multi-Scale
Attention Transformer and Luminance Consistency Loss [11.585269110131659]
低照度画像強調は、薄暗い環境で収集された画像の知覚を改善することを目的としている。
既存の方法では、識別された輝度情報を適応的に抽出することができず、露光過多や露光過多を容易に引き起こすことができる。
MSATrというマルチスケールアテンション変換器を提案し,光バランスの局所的・グローバル的特徴を十分に抽出し,視覚的品質を向上させる。
論文 参考訳(メタデータ) (2023-12-27T10:07:11Z) - Enhancing Low-light Light Field Images with A Deep Compensation Unfolding Network [52.77569396659629]
本稿では,低光環境下で撮像した光場(LF)画像の復元に,DCUNet(Deep compensation network openfolding)を提案する。
このフレームワークは、中間拡張結果を使用して照明マップを推定し、展開プロセスで新しい拡張結果を生成する。
本稿では,LF画像の特徴を適切に活用するために,擬似明示的特徴相互作用モジュールを提案する。
論文 参考訳(メタデータ) (2023-08-10T07:53:06Z) - Improving Pixel-based MIM by Reducing Wasted Modeling Capability [77.99468514275185]
浅い層から低レベルの特徴を明示的に利用して画素再構成を支援する手法を提案する。
私たちの知る限りでは、等方的アーキテクチャのためのマルチレベル特徴融合を体系的に研究するのは、私たちは初めてです。
提案手法は, 微調整では1.2%, 線形探索では2.8%, セマンティックセグメンテーションでは2.6%など, 大幅な性能向上をもたらす。
論文 参考訳(メタデータ) (2023-08-01T03:44:56Z) - Super-Resolution of License Plate Images Using Attention Modules and
Sub-Pixel Convolution Layers [3.8831062015253055]
監視画像における構造的特徴およびテクスチャ的特徴の検出を強化するために,Single-Image Super-Resolution (SISR) アプローチを導入する。
提案手法は,サブピクセルの畳み込み層と,光学的文字認識(OCR)モデルを用いて特徴抽出を行うロス関数を含む。
以上の結果から, これらの低解像度合成画像の再構成手法は, 定量化と定性化の両面で, 既存の画像よりも優れていたことが示唆された。
論文 参考訳(メタデータ) (2023-05-27T00:17:19Z) - Combining Attention Module and Pixel Shuffle for License Plate
Super-Resolution [3.8831062015253055]
本研究は,低解像度・低画質画像におけるライセンスプレート(LP)再構成に焦点を当てた。
本稿では、注目/変圧器モジュールの概念を拡張したシングルイメージ超解法(SISR)アプローチを提案する。
実験では, 提案手法は, 定量的および定性的に, ベースラインよりも優れていた。
論文 参考訳(メタデータ) (2022-10-30T13:05:07Z) - Toward Fast, Flexible, and Robust Low-Light Image Enhancement [87.27326390675155]
我々は、現実の低照度シナリオにおいて、高速でフレキシブルで頑健な鮮明化のための新しい自己校正イルミネーション(SCI)学習フレームワークを開発した。
カスケードパターンの計算負担を考慮すると、各ステージの結果の収束を実現する自己校正モジュールを構築する。
我々は,SCI固有の特性について,操作不感適応性やモデル非関係の一般性を含む包括的探索を行う。
論文 参考訳(メタデータ) (2022-04-21T14:40:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。