論文の概要: Joint Correcting and Refinement for Balanced Low-Light Image Enhancement
- arxiv url: http://arxiv.org/abs/2309.16128v2
- Date: Thu, 19 Oct 2023 08:51:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-20 19:09:05.020096
- Title: Joint Correcting and Refinement for Balanced Low-Light Image Enhancement
- Title(参考訳): バランスのとれた低光画像強調のための共同補正と補正
- Authors: Nana Yu, Hong Shi and Yahong Han
- Abstract要約: より効果的に明るさ、色、照明のバランスをとることができる新しい構造が提案されている。
JCRNet(Joint Correcting and Refinement Network)は主に、明るさ、色、照明の輝度のバランスをとるための3つのステージで構成されている。
- 参考スコア(独自算出の注目度): 26.399356992450763
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Low-light image enhancement tasks demand an appropriate balance among
brightness, color, and illumination. While existing methods often focus on one
aspect of the image without considering how to pay attention to this balance,
which will cause problems of color distortion and overexposure etc. This
seriously affects both human visual perception and the performance of
high-level visual models. In this work, a novel synergistic structure is
proposed which can balance brightness, color, and illumination more
effectively. Specifically, the proposed method, so-called Joint Correcting and
Refinement Network (JCRNet), which mainly consists of three stages to balance
brightness, color, and illumination of enhancement. Stage 1: we utilize a basic
encoder-decoder and local supervision mechanism to extract local information
and more comprehensive details for enhancement. Stage 2: cross-stage feature
transmission and spatial feature transformation further facilitate color
correction and feature refinement. Stage 3: we employ a dynamic illumination
adjustment approach to embed residuals between predicted and ground truth
images into the model, adaptively adjusting illumination balance. Extensive
experiments demonstrate that the proposed method exhibits comprehensive
performance advantages over 21 state-of-the-art methods on 9 benchmark
datasets. Furthermore, a more persuasive experiment has been conducted to
validate our approach the effectiveness in downstream visual tasks (e.g.,
saliency detection). Compared to several enhancement models, the proposed
method effectively improves the segmentation results and quantitative metrics
of saliency detection. The source code will be available at
https://github.com/woshiyll/JCRNet.
- Abstract(参考訳): 低照度画像強調タスクは、明るさ、色、照明の適切なバランスを要求する。
既存の手法では、このバランスにどのように注意を払うかを考えることなく、画像の一面にフォーカスすることが多いが、色歪みや過剰露光などの問題を引き起こす。
これは人間の視覚知覚と高レベルの視覚モデルの性能の両方に深刻な影響を及ぼす。
本研究は, 輝度, 色, 照明のバランスをより効果的に調整できる新しい相乗構造を提案する。
具体的には、主に明るさ、色、照明の輝度のバランスをとる3つの段階からなる、いわゆるJCRNet(Joint Correcting and Refinement Network)を提案する。
ステージ1: 基本エンコーダデコーダとローカル監視機構を用いて, ローカル情報とより包括的な詳細情報を抽出して拡張する。
ステージ2: 横断的な特徴伝達と空間的特徴変換により、色補正と特徴改善がさらに促進される。
ステージ3: 予測された真実像と地上の真実像の残差をモデルに埋め込むための動的照明調整手法を用いて、照明バランスを適応的に調整する。
広範な実験により,提案手法は,ベンチマークデータセット9点において,21の最先端手法よりも総合的な性能向上を示すことが示された。
さらに、より説得力のある実験を行い、下流視覚タスク(例えば、唾液度検出)における我々のアプローチの有効性を検証する。
いくつかの拡張モデルと比較して,提案手法はセグメント化結果と定量化指標を効果的に改善する。
ソースコードはhttps://github.com/woshiyll/JCRNetで入手できる。
関連論文リスト
- A Non-Uniform Low-Light Image Enhancement Method with Multi-Scale
Attention Transformer and Luminance Consistency Loss [11.585269110131659]
低照度画像強調は、薄暗い環境で収集された画像の知覚を改善することを目的としている。
既存の方法では、識別された輝度情報を適応的に抽出することができず、露光過多や露光過多を容易に引き起こすことができる。
MSATrというマルチスケールアテンション変換器を提案し,光バランスの局所的・グローバル的特徴を十分に抽出し,視覚的品質を向上させる。
論文 参考訳(メタデータ) (2023-12-27T10:07:11Z) - Layered Rendering Diffusion Model for Zero-Shot Guided Image Synthesis [60.260724486834164]
本稿では,テキストクエリに依存する拡散モデルにおける空間制御性向上のための革新的な手法を提案する。
視覚誘導(Vision Guidance)とレイヤーレンダリング拡散(Layered Rendering Diffusion)フレームワーク(Layered Diffusion)という2つの重要なイノベーションを提示します。
本稿では,ボックス・ツー・イメージ,セマンティック・マスク・ツー・イメージ,画像編集の3つの実践的応用に適用する。
論文 参考訳(メタデータ) (2023-11-30T10:36:19Z) - Zero-Shot Enhancement of Low-Light Image Based on Retinex Decomposition [4.175396687130961]
本稿ではZERRINNetと呼ばれるゼロショット低照度化手法の学習に基づくRetinex分解を提案する。
本手法は,ペアとアンペアのデータセットのトレーニングデータの影響を受けないゼロ参照拡張手法である。
論文 参考訳(メタデータ) (2023-11-06T09:57:48Z) - Low-Light Image Enhancement with Illumination-Aware Gamma Correction and
Complete Image Modelling Network [69.96295927854042]
低照度環境は通常、情報の少ない大規模な暗黒地帯に繋がる。
本稿では,ガンマ補正の有効性を深層ネットワークのモデリング能力と統合することを提案する。
指数関数演算は高い計算複雑性をもたらすので、Taylor Series を用いてガンマ補正を近似することを提案する。
論文 参考訳(メタデータ) (2023-08-16T08:46:51Z) - Learning to Adapt to Light [14.919947487248653]
LAネットワーク(LA-Net)を用いた光関連画像強調処理のための生物学的に着想を得た手法を提案する。
新しいモジュールは生物学的な視覚適応にインスパイアされ、低周波経路における統一的な光適応を実現する。
低照度向上, 露光補正, トーンマッピングという3つの課題の実験により, 提案手法がほぼ最先端の性能を得ることを示した。
論文 参考訳(メタデータ) (2022-02-16T14:36:25Z) - Low-light Image Enhancement by Retinex Based Algorithm Unrolling and
Adjustment [50.13230641857892]
本稿では,低照度画像強調(LIE)問題に対する新たなディープラーニングフレームワークを提案する。
提案フレームワークは,大域的明るさと局所的明るさ感度の両方を考慮したアルゴリズムアンロールと調整ネットワークに着想を得た分解ネットワークを含む。
一連の典型的なLIEデータセットの実験では,既存の手法と比較して,定量的かつ視覚的に,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2022-02-12T03:59:38Z) - Decoupled Low-light Image Enhancement [21.111831640136835]
本稿では,拡張モデルを2つの段階に分離することを提案する。
第1ステージでは、ピクセル単位の非線形マッピングに基づいて、シーンの可視性を改善することに焦点を当てている。
第2段階は、残りの変性因子を抑えることにより、外観の忠実度を改善することに焦点を当てる。
論文 参考訳(メタデータ) (2021-11-29T11:15:38Z) - Degrade is Upgrade: Learning Degradation for Low-light Image Enhancement [52.49231695707198]
2段階の工程で細部と色を精錬しながら、内在的な劣化と低照度画像を照らし出す。
カラー画像の定式化に触発されて,まず低照度入力からの劣化を推定し,環境照明色の歪みをシミュレーションし,そのコンテンツを精錬して拡散照明色の損失を回復した。
LOL1000データセットではPSNRで0.95dB、ExDarkデータセットでは3.18%のmAPでSOTAを上回った。
論文 参考訳(メタデータ) (2021-03-19T04:00:27Z) - Deep Bilateral Retinex for Low-Light Image Enhancement [96.15991198417552]
低照度画像は、低コントラスト、色歪み、測定ノイズによる視界の低下に悩まされる。
本稿では,低照度画像強調のための深層学習手法を提案する。
提案手法は最先端の手法と非常に競合し, 極めて低照度で撮影した画像の処理において, 他に比べて大きな優位性を有する。
論文 参考訳(メタデータ) (2020-07-04T06:26:44Z) - Unsupervised Low-light Image Enhancement with Decoupled Networks [103.74355338972123]
我々は、実世界の低照度画像を教師なしで拡張する2段階のGANベースのフレームワークを学習する。
提案手法は,照度向上と雑音低減の両面から,最先端の教師なし画像強調法より優れる。
論文 参考訳(メタデータ) (2020-05-06T13:37:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。