論文の概要: Learning Deep Context-Sensitive Decomposition for Low-Light Image
Enhancement
- arxiv url: http://arxiv.org/abs/2112.05147v1
- Date: Thu, 9 Dec 2021 06:25:30 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-13 15:27:56.524456
- Title: Learning Deep Context-Sensitive Decomposition for Low-Light Image
Enhancement
- Title(参考訳): 低照度画像強調のための深部文脈感性分解の学習
- Authors: Long Ma, Risheng Liu, Jiaao Zhang, Xin Fan, Zhongxuan Luo
- Abstract要約: 典型的なフレームワークは、照明と反射を同時に推定することであるが、特徴空間にカプセル化されたシーンレベルの文脈情報を無視する。
本研究では,空間スケールにおけるシーンレベルのコンテキスト依存を生かした,コンテキスト依存型分解ネットワークアーキテクチャを提案する。
チャネル数を減らして軽量なCSDNet(LiteCSDNet)を開発する。
- 参考スコア(独自算出の注目度): 58.72667941107544
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Enhancing the quality of low-light images plays a very important role in many
image processing and multimedia applications. In recent years, a variety of
deep learning techniques have been developed to address this challenging task.
A typical framework is to simultaneously estimate the illumination and
reflectance, but they disregard the scene-level contextual information
encapsulated in feature spaces, causing many unfavorable outcomes, e.g.,
details loss, color unsaturation, artifacts, and so on. To address these
issues, we develop a new context-sensitive decomposition network architecture
to exploit the scene-level contextual dependencies on spatial scales. More
concretely, we build a two-stream estimation mechanism including reflectance
and illumination estimation network. We design a novel context-sensitive
decomposition connection to bridge the two-stream mechanism by incorporating
the physical principle. The spatially-varying illumination guidance is further
constructed for achieving the edge-aware smoothness property of the
illumination component. According to different training patterns, we construct
CSDNet (paired supervision) and CSDGAN (unpaired supervision) to fully evaluate
our designed architecture. We test our method on seven testing benchmarks to
conduct plenty of analytical and evaluated experiments. Thanks to our designed
context-sensitive decomposition connection, we successfully realized excellent
enhanced results, which fully indicates our superiority against existing
state-of-the-art approaches. Finally, considering the practical needs for
high-efficiency, we develop a lightweight CSDNet (named LiteCSDNet) by reducing
the number of channels. Further, by sharing an encoder for these two
components, we obtain a more lightweight version (SLiteCSDNet for short).
SLiteCSDNet just contains 0.0301M parameters but achieves the almost same
performance as CSDNet.
- Abstract(参考訳): ローライト画像の品質向上は、多くの画像処理やマルチメディアアプリケーションにおいて非常に重要な役割を果たす。
近年,この課題に対処するために,様々なディープラーニング技術が開発されている。
典型的な枠組みは照明と反射を同時に推定することであるが、それらは特徴空間にカプセル化されたシーンレベルの文脈情報を無視し、詳細損失、彩色不飽和、アーティファクトなど多くの好ましくない結果を引き起こす。
これらの問題に対処するために,空間スケールにおけるシーンレベルのコンテキスト依存を活かした,コンテキスト依存型分解ネットワークアーキテクチャを開発した。
より具体的には、反射率と照明推定ネットワークを含む二流推定機構を構築する。
物理原理を取り入れた2ストリーム機構を橋渡しする新しいコンテキスト依存分解接続を設計する。
照明成分のエッジ認識平滑性を達成するため、空間変動照明指導をさらに構築する。
異なるトレーニングパターンに従って、設計したアーキテクチャを十分に評価するために、CSDNet(ペア化監視)とCSDGAN(ペア化監視)を構築します。
本手法を7つのテストベンチマークで検証し,多くの解析および評価実験を行った。
設計した文脈依存分解接続により,既存の最先端手法に対する優位性を示す優れた拡張結果が得られた。
最後に, 高効率性を実現するために, 軽量なCSDNet(LiteCSDNet)を開発し, チャネル数を削減した。
さらに、この2つのコンポーネントのエンコーダを共有することで、より軽量なバージョン(略してSLiteCSDNet)が得られる。
SLiteCSDNetには0.0301Mのパラメータが含まれているが、CSDNetとほぼ同等のパフォーマンスを実現する。
関連論文リスト
- Latent Disentanglement for Low Light Image Enhancement [4.527270266697463]
低照度ビジョンタスクのための潜在ディスタングルベースエンハンスネットワーク(LDE-Net)を提案する。
潜伏不絡モジュールは、非絡合コンテンツおよび照度成分に汚損が残らないように、潜伏空間で入力画像を非絡合する。
ダウンストリームタスク(夜間UAV追跡や低照度物体検出など)に対しては、潜時非絡み合いフレームワークに基づく効果的な軽量エンハンサを開発する。
論文 参考訳(メタデータ) (2024-08-12T15:54:46Z) - Fast Context-Based Low-Light Image Enhancement via Neural Implicit Representations [6.113035634680655]
現在のディープラーニングベースの低照度画像強調手法は高解像度画像としばしば競合する。
我々は、未露出画像の2次元座標を照明成分にマッピングすることで、拡張過程を再定義する、CoLIEと呼ばれる新しいアプローチを導入する。
論文 参考訳(メタデータ) (2024-07-17T11:51:52Z) - Specularity Factorization for Low-Light Enhancement [2.7961648901433134]
本稿では,複数の潜伏成分からなる画像を扱う付加的な画像分解手法を提案する。
当社のモデル駆動型EM RSFNetは,最適化をネットワーク層に展開することで,これらの要因を推定する。
結果の因子は設計によって解釈可能であり、ネットワークを介して異なる画像強調タスクに融合したり、直接ユーザによって結合したりすることができる。
論文 参考訳(メタデータ) (2024-04-02T14:41:42Z) - Bilevel Fast Scene Adaptation for Low-Light Image Enhancement [50.639332885989255]
低照度シーンにおける画像の強調は、コンピュータビジョンにおいて難しいが、広く懸念されている課題である。
主な障害は、異なるシーンにまたがる分散の相違によるモデリングの混乱にある。
上述の潜在対応をモデル化するための双レベルパラダイムを導入する。
エンコーダのシーン非関連な一般化を多様なシーンにもたらすために、双方向学習フレームワークを構築した。
論文 参考訳(メタデータ) (2023-06-02T08:16:21Z) - Searching a Compact Architecture for Robust Multi-Exposure Image Fusion [55.37210629454589]
2つの大きなスタブリングブロックは、画素の不一致や非効率な推論など、開発を妨げる。
本研究では,高機能なマルチ露光画像融合のための自己アライメントとディテールリプレクションモジュールを取り入れたアーキテクチャ検索に基づくパラダイムを提案する。
提案手法は様々な競争方式より優れており、一般的なシナリオではPSNRが3.19%向上し、不整合シナリオでは23.5%向上した。
論文 参考訳(メタデータ) (2023-05-20T17:01:52Z) - SCRNet: a Retinex Structure-based Low-light Enhancement Model Guided by
Spatial Consistency [22.54951703413469]
本稿では,SCRNet(Spatial Consistency Retinex Network)と呼ばれる,新しい低照度画像強調モデルを提案する。
提案モデルでは, 空間的整合性の原理に着想を得て, チャネルレベル, セマンティックレベル, テクスチャレベルという3つのレベルの整合性を考慮した。
様々な低照度画像データセットに対する広範囲な評価は、提案したSCRNetが既存の最先端手法より優れていることを示している。
論文 参考訳(メタデータ) (2023-05-14T03:32:19Z) - Learning Detail-Structure Alternative Optimization for Blind
Super-Resolution [69.11604249813304]
そこで我々は,ブラインドSRに先立ってカーネルを曖昧にすることなく,再帰的な詳細構造代替最適化を実現する,有効かつカーネルフリーなネットワークDSSRを提案する。
DSSRでは、細部構造変調モジュール(DSMM)が構築され、画像の詳細と構造の相互作用と協調を利用する。
本手法は既存の手法に対して最先端の手法を実現する。
論文 参考訳(メタデータ) (2022-12-03T14:44:17Z) - Deep Decomposition and Bilinear Pooling Network for Blind Night-Time
Image Quality Evaluation [46.828620017822644]
本稿では,この問題に対処するための新しいディープ・インクリメンタル・バイリニア・プール・ネットワーク(DDB-Net)を提案する。
DDB-Netには、画像分解モジュール、特徴符号化モジュール、双線形プールモジュールの3つのモジュールが含まれている。
提案したDDB-Netの優位性は、2つのパブリックな夜間画像データベースに関する広範な実験によってよく検証されている。
論文 参考訳(メタデータ) (2022-05-12T05:16:24Z) - Multi-Content Complementation Network for Salient Object Detection in
Optical Remote Sensing Images [108.79667788962425]
光リモートセンシング画像(RSI-SOD)における有能な物体検出は、いまだに課題である。
本稿では, RSI-SOD における複数コンテンツの相補性を検討するために, MCCNet (Multi-Content Complementation Network) を提案する。
MCCMでは、前景機能、エッジ機能、背景機能、グローバル画像レベル機能など、RSI-SODにとって重要な複数の機能について検討する。
論文 参考訳(メタデータ) (2021-12-02T04:46:40Z) - Learning Enriched Features for Real Image Restoration and Enhancement [166.17296369600774]
畳み込みニューラルネットワーク(CNN)は、画像復元作業における従来のアプローチよりも劇的に改善されている。
ネットワーク全体を通して空間的精度の高い高解像度表現を維持することを目的とした,新しいアーキテクチャを提案する。
提案手法は,高解像度の空間的詳細を同時に保存しながら,複数のスケールからの文脈情報を組み合わせた豊富な特徴集合を学習する。
論文 参考訳(メタデータ) (2020-03-15T11:04:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。