論文の概要: Troublemaker Learning for Low-Light Image Enhancement
- arxiv url: http://arxiv.org/abs/2402.04584v2
- Date: Sun, 3 Mar 2024 03:48:48 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-07 00:30:55.939627
- Title: Troublemaker Learning for Low-Light Image Enhancement
- Title(参考訳): 低光度画像強調のためのトラブルメーカ学習
- Authors: Yinghao Song, Zhiyuan Cao, Wanhong Xiang, Sifan Long, Bo Yang, Hongwei
Ge, Yanchun Liang, Chunguo Wu
- Abstract要約: 低照度画像強調(LLIE)は、未露出画像の色と明るさを復元する。
監督された手法は、低照度と通常照度の画像ペアの収集に高いコストがかかる。
教師なしの手法は、複雑な損失関数の作成に多大な努力を払っている。
TML戦略は、通常の光像をトレーニングの入力として利用する。
- 参考スコア(独自算出の注目度): 5.830215795541491
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Low-light image enhancement (LLIE) restores the color and brightness of
underexposed images. Supervised methods suffer from high costs in collecting
low/normal-light image pairs. Unsupervised methods invest substantial effort in
crafting complex loss functions. We address these two challenges through the
proposed TroubleMaker Learning (TML) strategy, which employs normal-light
images as inputs for training. TML is simple: we first dim the input and then
increase its brightness. TML is based on two core components. First, the
troublemaker model (TM) constructs pseudo low-light images from normal images
to relieve the cost of pairwise data. Second, the predicting model (PM)
enhances the brightness of pseudo low-light images. Additionally, we
incorporate an enhancing model (EM) to further improve the visual performance
of PM outputs. Moreover, in LLIE tasks, characterizing global element
correlations is important because more information on the same object can be
captured. CNN cannot achieve this well, and self-attention has high time
complexity. Accordingly, we propose Global Dynamic Convolution (GDC) with O(n)
time complexity, which essentially imitates the partial calculation process of
self-attention to formulate elementwise correlations. Based on the GDC module,
we build the UGDC model. Extensive quantitative and qualitative experiments
demonstrate that UGDC trained with TML can achieve competitive performance
against state-of-the-art approaches on public datasets. The code is available
at https://github.com/Rainbowman0/TML_LLIE.
- Abstract(参考訳): 低光度画像強調(llie)は、露出不足の画像の色と明るさを復元する。
教師付き手法は、低/常光画像ペアの収集に高いコストがかかる。
教師なしの手法は複雑な損失関数の作成に多大な労力を費やす。
我々は,この2つの課題を,通常の光画像を入力としてトレーニングを行うtml(tml)戦略を通じて解決する。
TMLは単純で、まず入力を減らし、その明るさを上げる。
TMLは2つのコアコンポーネントに基づいている。
まず、トラブルメーカーモデル(tm)は、通常画像からの擬似低照度画像を構築し、ペアワイズデータのコストを緩和する。
第二に、予測モデル(PM)は擬似低照度画像の明るさを高める。
さらに,PM出力の視覚的性能を向上させるために,拡張モデル(EM)を組み込んだ。
さらに、LLIEタスクでは、同じオブジェクトに関するより多くの情報をキャプチャできるため、グローバルな要素相関を特徴付けることが重要である。
CNNは、これをうまく達成することができず、自己注意は、高い時間的複雑さを持つ。
そこで本研究では,O(n)時間複雑性を伴うグローバル動的畳み込み(GDC)を提案する。
GDCモジュールをベースとして,UGDCモデルを構築した。
TMLでトレーニングされたUGDCが、公開データセットの最先端アプローチと競合するパフォーマンスを達成できることを、大規模に定量化および定性的な実験が示している。
コードはhttps://github.com/Rainbowman0/TML_LLIEで公開されている。
関連論文リスト
- Semi-LLIE: Semi-supervised Contrastive Learning with Mamba-based Low-light Image Enhancement [59.17372460692809]
本研究は、平均教師による半教師付き低照度強化(Semi-LLIE)フレームワークを提案する。
照度分布を忠実に伝達するために、意味認識によるコントラスト損失を導入し、自然色による画像の強調に寄与する。
また,大規模な視覚言語認識モデル(RAM)に基づく新たな知覚損失を提案し,よりリッチなテキストによる画像生成を支援する。
論文 参考訳(メタデータ) (2024-09-25T04:05:32Z) - LMT-GP: Combined Latent Mean-Teacher and Gaussian Process for Semi-supervised Low-light Image Enhancement [13.409692692360586]
そこで我々は,LMT-GP という潜在平均教師とガウス過程に基づく半教師付き手法を提案する。
実験結果から,本手法は高い一般化性能と画質を実現することが示された。
論文 参考訳(メタデータ) (2024-08-29T03:23:51Z) - Exposure Bracketing is All You Need for Unifying Image Restoration and Enhancement Tasks [50.822601495422916]
本稿では,露光ブラケット写真を利用して画像復元と拡張作業を統合することを提案する。
実世界のペアの収集が困難であるため,まず合成ペアデータを用いてモデルを事前学習する手法を提案する。
特に,時間変調リカレントネットワーク(TMRNet)と自己教師あり適応手法を提案する。
論文 参考訳(メタデータ) (2024-01-01T14:14:35Z) - A Non-Uniform Low-Light Image Enhancement Method with Multi-Scale
Attention Transformer and Luminance Consistency Loss [11.585269110131659]
低照度画像強調は、薄暗い環境で収集された画像の知覚を改善することを目的としている。
既存の方法では、識別された輝度情報を適応的に抽出することができず、露光過多や露光過多を容易に引き起こすことができる。
MSATrというマルチスケールアテンション変換器を提案し,光バランスの局所的・グローバル的特徴を十分に抽出し,視覚的品質を向上させる。
論文 参考訳(メタデータ) (2023-12-27T10:07:11Z) - Ultra-High-Definition Low-Light Image Enhancement: A Benchmark and
Transformer-Based Method [51.30748775681917]
低照度画像強調(LLIE)の課題を考察し,4K解像度と8K解像度の画像からなる大規模データベースを導入する。
我々は、系統的なベンチマーク研究を行い、現在のLLIEアルゴリズムと比較する。
第2のコントリビューションとして,変換器をベースとした低照度化手法であるLLFormerを紹介する。
論文 参考訳(メタデータ) (2022-12-22T09:05:07Z) - Toward Fast, Flexible, and Robust Low-Light Image Enhancement [87.27326390675155]
我々は、現実の低照度シナリオにおいて、高速でフレキシブルで頑健な鮮明化のための新しい自己校正イルミネーション(SCI)学習フレームワークを開発した。
カスケードパターンの計算負担を考慮すると、各ステージの結果の収束を実現する自己校正モジュールを構築する。
我々は,SCI固有の特性について,操作不感適応性やモデル非関係の一般性を含む包括的探索を行う。
論文 参考訳(メタデータ) (2022-04-21T14:40:32Z) - Enhancing Low-Light Images in Real World via Cross-Image Disentanglement [58.754943762945864]
そこで本研究では,現実の汚職とミスアライメントされたトレーニング画像からなる,新しい低照度画像強調データセットを提案する。
本モデルでは,新たに提案したデータセットと,他の一般的な低照度データセットの両方に対して,最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2022-01-10T03:12:52Z) - Degrade is Upgrade: Learning Degradation for Low-light Image Enhancement [52.49231695707198]
2段階の工程で細部と色を精錬しながら、内在的な劣化と低照度画像を照らし出す。
カラー画像の定式化に触発されて,まず低照度入力からの劣化を推定し,環境照明色の歪みをシミュレーションし,そのコンテンツを精錬して拡散照明色の損失を回復した。
LOL1000データセットではPSNRで0.95dB、ExDarkデータセットでは3.18%のmAPでSOTAを上回った。
論文 参考訳(メタデータ) (2021-03-19T04:00:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。