論文の概要: Joint Correcting and Refinement for Balanced Low-Light Image Enhancement
- arxiv url: http://arxiv.org/abs/2309.16128v1
- Date: Thu, 28 Sep 2023 03:16:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-29 18:05:26.913065
- Title: Joint Correcting and Refinement for Balanced Low-Light Image Enhancement
- Title(参考訳): バランスのとれた低光画像強調のための共同補正と補正
- Authors: Nana Yu, Hong Shi, Jie Wang and Yahong Han
- Abstract要約: より効果的に明るさ、色、照明のバランスをとることができる新しい構造が提案されている。
JCRNet(Joint Correcting and Refinement Network)は主に、明るさ、色、照明の輝度のバランスをとるための3つのステージで構成されている。
- 参考スコア(独自算出の注目度): 25.510547751631293
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Low-light image enhancement tasks demand an appropriate balance among
brightness, color, and illumination. While existing methods often focus on one
aspect of the image without considering how to pay attention to this balance,
which will cause problems of color distortion and overexposure etc. This
seriously affects both human visual perception and the performance of
high-level visual models. In this work, a novel synergistic structure is
proposed which can balance brightness, color, and illumination more
effectively. Specifically, the proposed method, so-called Joint Correcting and
Refinement Network (JCRNet), which mainly consists of three stages to balance
brightness, color, and illumination of enhancement. Stage 1: we utilize a basic
encoder-decoder and local supervision mechanism to extract local information
and more comprehensive details for enhancement. Stage 2: cross-stage feature
transmission and spatial feature transformation further facilitate color
correction and feature refinement. Stage 3: we employ a dynamic illumination
adjustment approach to embed residuals between predicted and ground truth
images into the model, adaptively adjusting illumination balance. Extensive
experiments demonstrate that the proposed method exhibits comprehensive
performance advantages over 21 state-of-the-art methods on 9 benchmark
datasets. Furthermore, a more persuasive experiment has been conducted to
validate our approach the effectiveness in downstream visual tasks (e.g.,
saliency detection). Compared to several enhancement models, the proposed
method effectively improves the segmentation results and quantitative metrics
of saliency detection. The source code will be available at
https://github.com/woshiyll/JCRNet.
- Abstract(参考訳): 低照度画像強調タスクは、明るさ、色、照明の適切なバランスを要求する。
既存の手法では、このバランスにどのように注意を払うかを考えることなく、画像の一面にフォーカスすることが多いが、色歪みや過剰露光などの問題を引き起こす。
これは人間の視覚知覚と高レベルの視覚モデルの性能の両方に深刻な影響を及ぼす。
本研究は, 輝度, 色, 照明のバランスをより効果的に調整できる新しい相乗構造を提案する。
具体的には、主に明るさ、色、照明の輝度のバランスをとる3つの段階からなる、いわゆるJCRNet(Joint Correcting and Refinement Network)を提案する。
ステージ1: 基本エンコーダデコーダとローカル監視機構を用いて, ローカル情報とより包括的な詳細情報を抽出して拡張する。
ステージ2: 横断的な特徴伝達と空間的特徴変換により、色補正と特徴改善がさらに促進される。
ステージ3: 予測された真実像と地上の真実像の残差をモデルに埋め込むための動的照明調整手法を用いて、照明バランスを適応的に調整する。
広範な実験により,提案手法は,ベンチマークデータセット9点において,21の最先端手法よりも総合的な性能向上を示すことが示された。
さらに、より説得力のある実験を行い、下流視覚タスク(例えば、唾液度検出)における我々のアプローチの有効性を検証する。
いくつかの拡張モデルと比較して,提案手法はセグメント化結果と定量化指標を効果的に改善する。
ソースコードはhttps://github.com/woshiyll/JCRNetで入手できる。
関連論文リスト
- Semi-LLIE: Semi-supervised Contrastive Learning with Mamba-based Low-light Image Enhancement [59.17372460692809]
本研究は、平均教師による半教師付き低照度強化(Semi-LLIE)フレームワークを提案する。
照度分布を忠実に伝達するために、意味認識によるコントラスト損失を導入し、自然色による画像の強調に寄与する。
また,大規模な視覚言語認識モデル(RAM)に基づく新たな知覚損失を提案し,よりリッチなテキストによる画像生成を支援する。
論文 参考訳(メタデータ) (2024-09-25T04:05:32Z) - CodeEnhance: A Codebook-Driven Approach for Low-Light Image Enhancement [97.95330185793358]
低照度画像強調(LLIE)は、低照度画像を改善することを目的としている。
既存の手法では、様々な明るさ劣化からの回復の不確実性と、テクスチャと色情報の喪失という2つの課題に直面している。
我々は、量子化された先行値と画像の精細化を利用して、新しいエンハンスメント手法、CodeEnhanceを提案する。
論文 参考訳(メタデータ) (2024-04-08T07:34:39Z) - A Non-Uniform Low-Light Image Enhancement Method with Multi-Scale
Attention Transformer and Luminance Consistency Loss [11.585269110131659]
低照度画像強調は、薄暗い環境で収集された画像の知覚を改善することを目的としている。
既存の方法では、識別された輝度情報を適応的に抽出することができず、露光過多や露光過多を容易に引き起こすことができる。
MSATrというマルチスケールアテンション変換器を提案し,光バランスの局所的・グローバル的特徴を十分に抽出し,視覚的品質を向上させる。
論文 参考訳(メタデータ) (2023-12-27T10:07:11Z) - Zero-Shot Enhancement of Low-Light Image Based on Retinex Decomposition [4.175396687130961]
本稿ではZERRINNetと呼ばれるゼロショット低照度化手法の学習に基づくRetinex分解を提案する。
本手法は,ペアとアンペアのデータセットのトレーニングデータの影響を受けないゼロ参照拡張手法である。
論文 参考訳(メタデータ) (2023-11-06T09:57:48Z) - Low-Light Image Enhancement with Illumination-Aware Gamma Correction and
Complete Image Modelling Network [69.96295927854042]
低照度環境は通常、情報の少ない大規模な暗黒地帯に繋がる。
本稿では,ガンマ補正の有効性を深層ネットワークのモデリング能力と統合することを提案する。
指数関数演算は高い計算複雑性をもたらすので、Taylor Series を用いてガンマ補正を近似することを提案する。
論文 参考訳(メタデータ) (2023-08-16T08:46:51Z) - Learning to Adapt to Light [14.919947487248653]
LAネットワーク(LA-Net)を用いた光関連画像強調処理のための生物学的に着想を得た手法を提案する。
新しいモジュールは生物学的な視覚適応にインスパイアされ、低周波経路における統一的な光適応を実現する。
低照度向上, 露光補正, トーンマッピングという3つの課題の実験により, 提案手法がほぼ最先端の性能を得ることを示した。
論文 参考訳(メタデータ) (2022-02-16T14:36:25Z) - Decoupled Low-light Image Enhancement [21.111831640136835]
本稿では,拡張モデルを2つの段階に分離することを提案する。
第1ステージでは、ピクセル単位の非線形マッピングに基づいて、シーンの可視性を改善することに焦点を当てている。
第2段階は、残りの変性因子を抑えることにより、外観の忠実度を改善することに焦点を当てる。
論文 参考訳(メタデータ) (2021-11-29T11:15:38Z) - Degrade is Upgrade: Learning Degradation for Low-light Image Enhancement [52.49231695707198]
2段階の工程で細部と色を精錬しながら、内在的な劣化と低照度画像を照らし出す。
カラー画像の定式化に触発されて,まず低照度入力からの劣化を推定し,環境照明色の歪みをシミュレーションし,そのコンテンツを精錬して拡散照明色の損失を回復した。
LOL1000データセットではPSNRで0.95dB、ExDarkデータセットでは3.18%のmAPでSOTAを上回った。
論文 参考訳(メタデータ) (2021-03-19T04:00:27Z) - Deep Bilateral Retinex for Low-Light Image Enhancement [96.15991198417552]
低照度画像は、低コントラスト、色歪み、測定ノイズによる視界の低下に悩まされる。
本稿では,低照度画像強調のための深層学習手法を提案する。
提案手法は最先端の手法と非常に競合し, 極めて低照度で撮影した画像の処理において, 他に比べて大きな優位性を有する。
論文 参考訳(メタデータ) (2020-07-04T06:26:44Z) - Unsupervised Low-light Image Enhancement with Decoupled Networks [103.74355338972123]
我々は、実世界の低照度画像を教師なしで拡張する2段階のGANベースのフレームワークを学習する。
提案手法は,照度向上と雑音低減の両面から,最先端の教師なし画像強調法より優れる。
論文 参考訳(メタデータ) (2020-05-06T13:37:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。