論文の概要: Simplifying Low-Light Image Enhancement Networks with Relative Loss
Functions
- arxiv url: http://arxiv.org/abs/2304.02978v2
- Date: Fri, 4 Aug 2023 02:29:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-07 16:02:22.282822
- Title: Simplifying Low-Light Image Enhancement Networks with Relative Loss
Functions
- Title(参考訳): 相対損失関数を用いた低光画像強調ネットワークの簡易化
- Authors: Yu Zhang, Xiaoguang Di, Junde Wu, Rao Fu, Yong Li, Yue Wang, Yanwu Xu,
Guohui Yang, Chunhui Wang
- Abstract要約: FLW-Net(Fast and LightWeight Network)と2つの相対損失関数を導入し,低照度画像強調における学習を容易にする。
我々はまず、グローバルコントラストを得るための大きな受容領域の必要性の課題を認識した。
そこで我々は,これらの課題を克服するために,相対情報に基づく効率的なグローバル特徴情報抽出コンポーネントと2つの損失関数を提案する。
- 参考スコア(独自算出の注目度): 14.63586364951471
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Image enhancement is a common technique used to mitigate issues such as
severe noise, low brightness, low contrast, and color deviation in low-light
images. However, providing an optimal high-light image as a reference for
low-light image enhancement tasks is impossible, which makes the learning
process more difficult than other image processing tasks. As a result, although
several low-light image enhancement methods have been proposed, most of them
are either too complex or insufficient in addressing all the issues in
low-light images. In this paper, to make the learning easier in low-light image
enhancement, we introduce FLW-Net (Fast and LightWeight Network) and two
relative loss functions. Specifically, we first recognize the challenges of the
need for a large receptive field to obtain global contrast and the lack of an
absolute reference, which limits the simplification of network structures in
this task. Then, we propose an efficient global feature information extraction
component and two loss functions based on relative information to overcome
these challenges. Finally, we conducted comparative experiments to demonstrate
the effectiveness of the proposed method, and the results confirm that the
proposed method can significantly reduce the complexity of supervised low-light
image enhancement networks while improving processing effect. The code is
available at \url{https://github.com/hitzhangyu/FLW-Net}.
- Abstract(参考訳): 画像強調は、高雑音、低輝度、低コントラスト、低照度画像における色偏差などの問題を緩和するために用いられる一般的な技法である。
しかし、低照度画像強調タスクの基準として最適な高照度画像を提供することは不可能であり、他の画像処理タスクよりも学習プロセスが困難になる。
その結果、いくつかの低照度画像強調法が提案されているが、そのほとんどは低照度画像の全ての問題に対処するには複雑すぎるか不十分である。
本稿では,低照度画像強調の学習を容易にするために,FLW-Net(Fast and LightWeight Network)と2つの相対損失関数を導入する。
具体的には、まず、グローバルコントラストを得るための大きな受容場の必要性と絶対参照の欠如について認識し、この課題におけるネットワーク構造の単純化を抑える。
そこで我々は,これらの課題を克服するために,相対情報に基づく効率的なグローバル特徴情報抽出コンポーネントと2つの損失関数を提案する。
最後に,提案手法の有効性を示すために比較実験を行い,提案手法が処理効果を高めつつ,教師付き低光度画像強調ネットワークの複雑さを著しく低減できることを確認した。
コードは \url{https://github.com/hitzhangyu/flw-net} で入手できる。
関連論文リスト
- CodeEnhance: A Codebook-Driven Approach for Low-Light Image Enhancement [97.95330185793358]
低照度画像強調(LLIE)は、低照度画像を改善することを目的としている。
既存の手法では、様々な明るさ劣化からの回復の不確実性と、テクスチャと色情報の喪失という2つの課題に直面している。
我々は、量子化された先行値と画像の精細化を利用して、新しいエンハンスメント手法、CodeEnhanceを提案する。
論文 参考訳(メタデータ) (2024-04-08T07:34:39Z) - Zero-Shot Enhancement of Low-Light Image Based on Retinex Decomposition [4.175396687130961]
本稿ではZERRINNetと呼ばれるゼロショット低照度化手法の学習に基づくRetinex分解を提案する。
本手法は,ペアとアンペアのデータセットのトレーニングデータの影響を受けないゼロ参照拡張手法である。
論文 参考訳(メタデータ) (2023-11-06T09:57:48Z) - LRT: An Efficient Low-Light Restoration Transformer for Dark Light Field
Images [9.926231893220063]
近年の低照度化のための学習手法には欠点がある。
LF画像に対する効率的な低照度復元変換器(LRT)を提案する。
提案手法は,低照度かつノイズの多いLF画像の復元において,優れた性能が得られることを示す。
論文 参考訳(メタデータ) (2022-09-06T03:23:58Z) - Low-light Image Enhancement by Retinex Based Algorithm Unrolling and
Adjustment [50.13230641857892]
本稿では,低照度画像強調(LIE)問題に対する新たなディープラーニングフレームワークを提案する。
提案フレームワークは,大域的明るさと局所的明るさ感度の両方を考慮したアルゴリズムアンロールと調整ネットワークに着想を得た分解ネットワークを含む。
一連の典型的なLIEデータセットの実験では,既存の手法と比較して,定量的かつ視覚的に,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2022-02-12T03:59:38Z) - Enhancing Low-Light Images in Real World via Cross-Image Disentanglement [58.754943762945864]
そこで本研究では,現実の汚職とミスアライメントされたトレーニング画像からなる,新しい低照度画像強調データセットを提案する。
本モデルでは,新たに提案したデータセットと,他の一般的な低照度データセットの両方に対して,最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2022-01-10T03:12:52Z) - Degrade is Upgrade: Learning Degradation for Low-light Image Enhancement [52.49231695707198]
2段階の工程で細部と色を精錬しながら、内在的な劣化と低照度画像を照らし出す。
カラー画像の定式化に触発されて,まず低照度入力からの劣化を推定し,環境照明色の歪みをシミュレーションし,そのコンテンツを精錬して拡散照明色の損失を回復した。
LOL1000データセットではPSNRで0.95dB、ExDarkデータセットでは3.18%のmAPでSOTAを上回った。
論文 参考訳(メタデータ) (2021-03-19T04:00:27Z) - Deep Bilateral Retinex for Low-Light Image Enhancement [96.15991198417552]
低照度画像は、低コントラスト、色歪み、測定ノイズによる視界の低下に悩まされる。
本稿では,低照度画像強調のための深層学習手法を提案する。
提案手法は最先端の手法と非常に競合し, 極めて低照度で撮影した画像の処理において, 他に比べて大きな優位性を有する。
論文 参考訳(メタデータ) (2020-07-04T06:26:44Z) - Burst Photography for Learning to Enhance Extremely Dark Images [19.85860245798819]
本稿では,超暗い原画像からよりシャープで高精度なRGB画像を得るため,バースト撮影を活用することを目的とする。
提案するフレームワークのバックボーンは,高品質な出力を段階的に生成する,粗大なネットワークアーキテクチャである。
実験により,本手法は,より詳細で高画質な画像を生成することによって,最先端の手法よりも知覚的により満足な結果をもたらすことが示された。
論文 参考訳(メタデータ) (2020-06-17T13:19:07Z) - Unsupervised Low-light Image Enhancement with Decoupled Networks [103.74355338972123]
我々は、実世界の低照度画像を教師なしで拡張する2段階のGANベースのフレームワークを学習する。
提案手法は,照度向上と雑音低減の両面から,最先端の教師なし画像強調法より優れる。
論文 参考訳(メタデータ) (2020-05-06T13:37:08Z) - Burst Denoising of Dark Images [19.85860245798819]
超暗い生画像からクリーンでカラフルなRGB画像を得るためのディープラーニングフレームワークを提案する。
我々のフレームワークのバックボーンは、プログレッシブな方法で高品質な出力を生成する新しい粗いネットワークアーキテクチャである。
実験により,提案手法は最先端の手法よりも知覚的により満足な結果をもたらすことが示された。
論文 参考訳(メタデータ) (2020-03-17T17:17:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。