論文の概要: MixNet: Towards Effective and Efficient UHD Low-Light Image Enhancement
- arxiv url: http://arxiv.org/abs/2401.10666v1
- Date: Fri, 19 Jan 2024 12:40:54 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-22 15:56:28.614827
- Title: MixNet: Towards Effective and Efficient UHD Low-Light Image Enhancement
- Title(参考訳): MixNet: 効果的で効率的なUHD低光画像強調を目指す
- Authors: Chen Wu and Zhuoran Zheng and Xiuyi Jia and Wenqi Ren
- Abstract要約: そこで本研究では,UHD画像用に設計したMixNetという低照度画像強調手法を提案する。
過剰な計算複雑性を伴わずに、機能の長距離依存性を捉えるために、Global Feature Modulation Layer (GFML)を提示する。
さらに、局所特徴変調層(LFML)とフィードフォワード層(FFL)を設計して、局所特徴をキャプチャし、特徴をコンパクトな表現に変換する。
- 参考スコア(独自算出の注目度): 45.801789547053026
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With the continuous advancement of imaging devices, the prevalence of
Ultra-High-Definition (UHD) images is rising. Although many image restoration
methods have achieved promising results, they are not directly applicable to
UHD images on devices with limited computational resources due to the
inherently high computational complexity of UHD images. In this paper, we focus
on the task of low-light image enhancement (LLIE) and propose a novel LLIE
method called MixNet, which is designed explicitly for UHD images. To capture
the long-range dependency of features without introducing excessive
computational complexity, we present the Global Feature Modulation Layer
(GFML). GFML associates features from different views by permuting the feature
maps, enabling efficient modeling of long-range dependency. In addition, we
also design the Local Feature Modulation Layer (LFML) and Feed-forward Layer
(FFL) to capture local features and transform features into a compact
representation. This way, our MixNet achieves effective LLIE with few model
parameters and low computational complexity. We conducted extensive experiments
on both synthetic and real-world datasets, and the comprehensive results
demonstrate that our proposed method surpasses the performance of current
state-of-the-art methods. The code will be available at
\url{https://github.com/zzr-idam/MixNet}.
- Abstract(参考訳): 撮像装置の継続的な進歩に伴い、UHD(Ultra-High-Definition)画像の普及が進んでいる。
多くの画像復元手法は有望な結果を得たが、uhd画像の計算複雑性が本質的に高いため、計算資源の少ないデバイスでは直接uhd画像に適用できない。
本稿では,低照度画像強調(LLIE)の課題に焦点をあて,UHD画像に対して明示的に設計されたMixNetと呼ばれる新しいLLIE手法を提案する。
過剰な計算複雑性を伴わずに、機能の長距離依存性を捉えるために、Global Feature Modulation Layer (GFML)を提案する。
GFMLは、機能マップを置換することで、異なるビューの機能を関連付け、長距離依存性の効率的なモデリングを可能にする。
さらに、局所特徴変調層(LFML)とフィードフォワード層(FFL)を設計して、局所特徴をキャプチャし、特徴をコンパクトな表現に変換する。
これにより,モデルパラメータが少なく,計算量も少ない効率的なllieを実現する。
合成と実世界の両方のデータセットについて広範な実験を行い,提案手法が現在の最先端手法よりも優れていることを示す。
コードは \url{https://github.com/zzr-idam/MixNet} で入手できる。
関連論文リスト
- Latent Modulated Function for Computational Optimal Continuous Image Representation [20.678662838709542]
連続画像表現のための新しい遅延変調レンダリング(LMF)アルゴリズムを提案する。
本稿では,既存のINR法をLMFに変換することにより,計算コストを最大99.9%削減できることを示す。
実験により、既存のINRベースのメソッドをLMFに変換することで、推論を57倍まで削減し、最大76%のパラメータを節約できることが示された。
論文 参考訳(メタデータ) (2024-04-25T09:30:38Z) - DeblurDiNAT: A Lightweight and Effective Transformer for Image Deblurring [1.5124439914522694]
実世界のぼやけた画像からクリーンな画像を効率よく復元する小型エンコーダデコーダトランスであるDeblurDiNATを提案する。
我々は,グローバルな特徴学習を目的とした交互拡張因子構造を採用する。
我々の空間効率と時間節約法は、パラメータが3%-68%少ないより強力な一般化能力を示す。
論文 参考訳(メタデータ) (2024-03-19T21:31:31Z) - EPNet: An Efficient Pyramid Network for Enhanced Single-Image
Super-Resolution with Reduced Computational Requirements [12.439807086123983]
シングルイメージ超解像(SISR)は、ディープラーニングの統合によって大幅に進歩した。
本稿では,エッジ分割ピラミッドモジュール (ESPM) とパノラマ特徴抽出モジュール (PFEM) を調和して結合し,既存の手法の限界を克服する,EPNet (Efficient Pyramid Network) を提案する。
論文 参考訳(メタデータ) (2023-12-20T19:56:53Z) - DGNet: Dynamic Gradient-Guided Network for Water-Related Optics Image
Enhancement [77.0360085530701]
水中画像強調(UIE)は、水中環境によって引き起こされる複雑な劣化のために難しい課題である。
従来の手法では、劣化過程を理想化し、中音や物体の動きが画像の特徴の分布に与える影響を無視することが多い。
提案手法では,予測画像を用いて疑似ラベルを動的に更新し,動的勾配を加えてネットワークの勾配空間を最適化する。
論文 参考訳(メタデータ) (2023-12-12T06:07:21Z) - Efficient Model Agnostic Approach for Implicit Neural Representation
Based Arbitrary-Scale Image Super-Resolution [5.704360536038803]
単一の画像超解像(SISR)は、主に深層畳み込みネットワークによって大きく進歩した。
従来のネットワークは、画像を一定のスケールにスケールアップすることに限定されており、任意のスケールのイメージを生成するために暗黙の神経機能を利用することになる。
我々は,任意のスケールで超解像を実現する,新しい,効率的なフレームワークであるMixture of Experts Implicit Super-Resolution(MoEISR)を導入する。
論文 参考訳(メタデータ) (2023-11-20T05:34:36Z) - Spatially-Adaptive Feature Modulation for Efficient Image
Super-Resolution [90.16462805389943]
視覚変換器(ViT)のようなブロック上に,空間適応型特徴変調(SAFM)機構を開発する。
提案法は最先端のSR法よりも3倍程度小さい。
論文 参考訳(メタデータ) (2023-02-27T14:19:31Z) - Ultra-High-Definition Low-Light Image Enhancement: A Benchmark and
Transformer-Based Method [51.30748775681917]
低照度画像強調(LLIE)の課題を考察し,4K解像度と8K解像度の画像からなる大規模データベースを導入する。
我々は、系統的なベンチマーク研究を行い、現在のLLIEアルゴリズムと比較する。
第2のコントリビューションとして,変換器をベースとした低照度化手法であるLLFormerを紹介する。
論文 参考訳(メタデータ) (2022-12-22T09:05:07Z) - ShuffleMixer: An Efficient ConvNet for Image Super-Resolution [88.86376017828773]
本稿では、大きな畳み込みとチャネル分割シャッフル操作を探索する軽量画像超解像のためのShuffleMixerを提案する。
具体的には,チャネル分割とシャッフルを基本成分とする2つのプロジェクション層を効率よく混合する。
実験結果から,ShuffleMixerはモデルパラメータやFLOPの手法に比べて約6倍小さいことがわかった。
論文 参考訳(メタデータ) (2022-05-30T15:26:52Z) - Hybrid Pixel-Unshuffled Network for Lightweight Image Super-Resolution [64.54162195322246]
畳み込みニューラルネットワーク(CNN)は画像超解像(SR)において大きな成功を収めた
ほとんどのディープCNNベースのSRモデルは、高い性能を得るために大量の計算を処理している。
SRタスクに効率的かつ効果的なダウンサンプリングモジュールを導入することで,HPUN(Hybrid Pixel-Unshuffled Network)を提案する。
論文 参考訳(メタデータ) (2022-03-16T20:10:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。