論文の概要: LTCF-Net: A Transformer-Enhanced Dual-Channel Fourier Framework for Low-Light Image Restoration
- arxiv url: http://arxiv.org/abs/2411.15740v1
- Date: Sun, 24 Nov 2024 07:21:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-26 14:23:37.854527
- Title: LTCF-Net: A Transformer-Enhanced Dual-Channel Fourier Framework for Low-Light Image Restoration
- Title(参考訳): LTCF-Net:低光画像復元のためのトランスフォーマー強化デュアルチャネルフーリエフレームワーク
- Authors: Gaojing Zhang, Jinglun Feng,
- Abstract要約: 低照度画像の高精細化を目的とした新しいネットワークアーキテクチャであるLTCF-Netを導入する。
提案手法では2つの色空間(LABとYUV)を用いて色情報を効率的に分離処理する。
我々のモデルは、画像コンテンツを包括的に理解するためのTransformerアーキテクチャを取り入れている。
- 参考スコア(独自算出の注目度): 1.049712834719005
- License:
- Abstract: We introduce LTCF-Net, a novel network architecture designed for enhancing low-light images. Unlike Retinex-based methods, our approach utilizes two color spaces - LAB and YUV - to efficiently separate and process color information, by leveraging the separation of luminance from chromatic components in color images. In addition, our model incorporates the Transformer architecture to comprehensively understand image content while maintaining computational efficiency. To dynamically balance the brightness in output images, we also introduce a Fourier transform module that adjusts the luminance channel in the frequency domain. This mechanism could uniformly balance brightness across different regions while eliminating background noises, and thereby enhancing visual quality. By combining these innovative components, LTCF-Net effectively improves low-light image quality while keeping the model lightweight. Experimental results demonstrate that our method outperforms current state-of-the-art approaches across multiple evaluation metrics and datasets, achieving more natural color restoration and a balanced brightness distribution.
- Abstract(参考訳): 低照度画像の高精細化を目的とした新しいネットワークアーキテクチャであるLTCF-Netを導入する。
Retinexベースの手法とは異なり、カラー画像中の色成分からの輝度の分離を利用して、LABとYUVという2つの色空間を用いて色情報を効率的に分離し、処理する。
さらに,このモデルにはTransformerアーキテクチャが組み込まれ,計算効率を保ちながら画像内容の包括的理解を実現している。
また、出力画像の輝度を動的にバランスさせるために、周波数領域の輝度チャネルを調整するフーリエ変換モジュールを導入する。
この機構は、背景ノイズを除去しながら異なる領域の明るさを均一にバランスさせ、視覚的品質を向上させることができる。
これらの革新的なコンポーネントを組み合わせることで、LTCF-Netは、モデルを軽量に保ちながら、低照度の画質を効果的に改善する。
実験結果から,本手法は複数の評価指標やデータセットにまたがる最先端の手法より優れており,より自然な色復元と輝度分布のバランスがとれることがわかった。
関連論文リスト
- Dynamic Brightness Adaptation for Robust Multi-modal Image Fusion [53.72174230024836]
現実のシナリオにおける可視画像は、動的環境の明るさ変動の影響を受け、テクスチャ劣化を引き起こす。
動的輝度変動に拘わらず、頑健な画像融合を実現するBrightness Adaptive Multimodal dynamic fusion framework (BA-Fusion)を提案する。
本手法は,多モード画像情報と視覚的忠実度を維持するための最先端手法を超越し,明るさの異なるレベルにおいて顕著な堅牢性を示す。
論文 参考訳(メタデータ) (2024-11-07T13:31:07Z) - CodeEnhance: A Codebook-Driven Approach for Low-Light Image Enhancement [97.95330185793358]
低照度画像強調(LLIE)は、低照度画像を改善することを目的としている。
既存の手法では、様々な明るさ劣化からの回復の不確実性と、テクスチャと色情報の喪失という2つの課題に直面している。
我々は、量子化された先行値と画像の精細化を利用して、新しいエンハンスメント手法、CodeEnhanceを提案する。
論文 参考訳(メタデータ) (2024-04-08T07:34:39Z) - You Only Need One Color Space: An Efficient Network for Low-light Image Enhancement [50.37253008333166]
低照度画像強調(LLIE)タスクは、劣化した低照度画像から詳細と視覚情報を復元する傾向がある。
水平/垂直インテンシティ(HVI)と呼ばれる新しいトレーニング可能なカラー空間を提案する。
輝度と色をRGBチャネルから切り離して、拡張中の不安定性を緩和するだけでなく、トレーニング可能なパラメータによって異なる照明範囲の低照度画像にも適応する。
論文 参考訳(メタデータ) (2024-02-08T16:47:43Z) - A Non-Uniform Low-Light Image Enhancement Method with Multi-Scale
Attention Transformer and Luminance Consistency Loss [11.585269110131659]
低照度画像強調は、薄暗い環境で収集された画像の知覚を改善することを目的としている。
既存の方法では、識別された輝度情報を適応的に抽出することができず、露光過多や露光過多を容易に引き起こすことができる。
MSATrというマルチスケールアテンション変換器を提案し,光バランスの局所的・グローバル的特徴を十分に抽出し,視覚的品質を向上させる。
論文 参考訳(メタデータ) (2023-12-27T10:07:11Z) - Enhancing Low-light Light Field Images with A Deep Compensation Unfolding Network [52.77569396659629]
本稿では,低光環境下で撮像した光場(LF)画像の復元に,DCUNet(Deep compensation network openfolding)を提案する。
このフレームワークは、中間拡張結果を使用して照明マップを推定し、展開プロセスで新しい拡張結果を生成する。
本稿では,LF画像の特徴を適切に活用するために,擬似明示的特徴相互作用モジュールを提案する。
論文 参考訳(メタデータ) (2023-08-10T07:53:06Z) - Division Gets Better: Learning Brightness-Aware and Detail-Sensitive
Representations for Low-Light Image Enhancement [10.899693396348171]
LCDBNetは、輝度調整ネットワーク(LAN)と色復元ネットワーク(CRN)の2つのブランチで構成されている。
LANは、長距離依存と局所的な注意相関を利用した輝度認識機能を学ぶ責任を負う。
CRNはマルチレベルウェーブレット分解によるディテールセンシティブな特徴の学習に重点を置いている。
最後に、融合ネットワークは、学習した特徴をブレンドして視覚的に印象的な画像を生成するように設計されている。
論文 参考訳(メタデータ) (2023-07-18T09:52:48Z) - Progressively-connected Light Field Network for Efficient View Synthesis [69.29043048775802]
本稿では、複雑な前方シーンのビュー合成のためのプログレッシブ・コネクテッド・ライトフィールド・ネットワーク(ProLiF)を提案する。
ProLiFは4Dライトフィールドをエンコードし、画像やパッチレベルの損失に対するトレーニングステップで大量の光線をレンダリングすることができる。
論文 参考訳(メタデータ) (2022-07-10T13:47:20Z) - Degrade is Upgrade: Learning Degradation for Low-light Image Enhancement [52.49231695707198]
2段階の工程で細部と色を精錬しながら、内在的な劣化と低照度画像を照らし出す。
カラー画像の定式化に触発されて,まず低照度入力からの劣化を推定し,環境照明色の歪みをシミュレーションし,そのコンテンツを精錬して拡散照明色の損失を回復した。
LOL1000データセットではPSNRで0.95dB、ExDarkデータセットでは3.18%のmAPでSOTAを上回った。
論文 参考訳(メタデータ) (2021-03-19T04:00:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。