論文の概要: Low Light Image Enhancement via Global and Local Context Modeling
- arxiv url: http://arxiv.org/abs/2101.00850v1
- Date: Mon, 4 Jan 2021 09:40:54 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-11 22:56:22.558544
- Title: Low Light Image Enhancement via Global and Local Context Modeling
- Title(参考訳): グローバルおよびローカルコンテキストモデリングによる低光度画像強調
- Authors: Aditya Arora, Muhammad Haris, Syed Waqas Zamir, Munawar Hayat, Fahad
Shahbaz Khan, Ling Shao, Ming-Hsuan Yang
- Abstract要約: 低照度画像強調のためのコンテキスト認識ディープネットワークを導入。
まず、全空間領域上の補完的な手がかりを見つけるために空間相関をモデル化するグローバルコンテキストモジュールを特徴とする。
第二に、比較的大きな受容フィールドで局所的なコンテキストをキャプチャする密な残留ブロックを導入する。
- 参考スコア(独自算出の注目度): 164.85287246243956
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Images captured under low-light conditions manifest poor visibility, lack
contrast and color vividness. Compared to conventional approaches, deep
convolutional neural networks (CNNs) perform well in enhancing images. However,
being solely reliant on confined fixed primitives to model dependencies,
existing data-driven deep models do not exploit the contexts at various spatial
scales to address low-light image enhancement. These contexts can be crucial
towards inferring several image enhancement tasks, e.g., local and global
contrast, brightness and color corrections; which requires cues from both local
and global spatial extent. To this end, we introduce a context-aware deep
network for low-light image enhancement. First, it features a global context
module that models spatial correlations to find complementary cues over full
spatial domain. Second, it introduces a dense residual block that captures
local context with a relatively large receptive field. We evaluate the proposed
approach using three challenging datasets: MIT-Adobe FiveK, LoL, and SID. On
all these datasets, our method performs favorably against the state-of-the-arts
in terms of standard image fidelity metrics. In particular, compared to the
best performing method on the MIT-Adobe FiveK dataset, our algorithm improves
PSNR from 23.04 dB to 24.45 dB.
- Abstract(参考訳): 低照度条件下で撮影された画像は視認性が悪く、コントラストや色鮮度が欠如している。
従来のアプローチと比較して、深層畳み込みニューラルネットワーク(cnns)は画像の強化にうまく機能する。
しかし、既存のデータ駆動のディープモデルは、固定固定プリミティブにのみ依存しているため、様々な空間スケールのコンテキストを利用して低照度画像の強調に対処することはできない。
これらの文脈は、例えば、局所的および大域的コントラスト、明るさと色補正といった、局所的および大域的な空間的範囲からの手がかりを必要とするいくつかの画像強調タスクを推測するために重要である。
そこで本研究では,低光度画像強調のためのコンテキスト対応深層ネットワークを提案する。
まず、全空間領域上の補完的な手がかりを見つけるために空間相関をモデル化するグローバルコンテキストモジュールを特徴とする。
第二に、比較的大きな受容場で局所的なコンテキストをキャプチャする密度の高い残留ブロックを導入する。
提案手法をMIT-Adobe FiveK, LoL, SIDの3つの挑戦的データセットを用いて評価した。
これらすべてのデータセットにおいて,本手法は,標準画像忠実度指標の観点から,最先端技術に対して好適に機能する。
特に、MIT-Adobe FiveKデータセットの最高のパフォーマンス手法と比較して、我々のアルゴリズムはPSNRを23.04dBから24.45dBに改善する。
関連論文リスト
- United Domain Cognition Network for Salient Object Detection in Optical Remote Sensing Images [21.76732661032257]
周波数領域と空間領域のグローバルローカル情報を共同で探索する新しい統一ドメイン認知ネットワーク(UDCNet)を提案する。
実験結果から提案したUDCNetが24種類の最先端モデルよりも優れていることが示された。
論文 参考訳(メタデータ) (2024-11-11T04:12:27Z) - Coherent and Multi-modality Image Inpainting via Latent Space Optimization [61.99406669027195]
PILOT(intextbfPainting vtextbfIa textbfOptextbfTimization)は、新しいテキストセマンティック中央化とテキストセマンティック保存損失に基づく最適化手法である。
本手法は,背景とのコヒーレンスを維持しつつ,ユーザが提供するプロンプトに対して高い忠実度を示す塗装領域を生成できる潜時空間を探索する。
論文 参考訳(メタデータ) (2024-07-10T19:58:04Z) - Towards Robust Event-guided Low-Light Image Enhancement: A Large-Scale Real-World Event-Image Dataset and Novel Approach [7.974102031202597]
そこで本研究では,低照度および常照度条件下での30万組以上の画像とイベントからなる実世界(屋内および屋外)データセットを提案する。
このデータセットに基づいて、実世界の低照度シーンにおけるロバストなパフォーマンスを実現するために、EvLightと呼ばれるイベント誘導型LIEアプローチを提案する。
論文 参考訳(メタデータ) (2024-04-01T00:18:17Z) - Low-Light Image Enhancement with Illumination-Aware Gamma Correction and
Complete Image Modelling Network [69.96295927854042]
低照度環境は通常、情報の少ない大規模な暗黒地帯に繋がる。
本稿では,ガンマ補正の有効性を深層ネットワークのモデリング能力と統合することを提案する。
指数関数演算は高い計算複雑性をもたらすので、Taylor Series を用いてガンマ補正を近似することを提案する。
論文 参考訳(メタデータ) (2023-08-16T08:46:51Z) - RSINet: Inpainting Remotely Sensed Images Using Triple GAN Framework [13.613245876782367]
本稿では,エッジ,色,テクスチャなどの画像の各側面に個別に焦点をあてる新しい塗装法を提案する。
個々のGANには、スペクトルと空間的特徴を明示的に抽出するアテンション機構も組み込まれている。
キャンバス上の2つのよく知られたリモートセンシングデータセット、Open Cities AIとEarthで、当社のモデルと過去の技術モデルの評価を行った。
論文 参考訳(メタデータ) (2022-02-12T05:19:37Z) - Learning Neural Light Fields with Ray-Space Embedding Networks [51.88457861982689]
我々は、コンパクトで、光線に沿った統合放射率を直接予測する新しいニューラル光場表現を提案する。
提案手法は,Stanford Light Field データセットのような,高密度の前方向きデータセットの最先端品質を実現する。
論文 参考訳(メタデータ) (2021-12-02T18:59:51Z) - HCNet: Hierarchical Context Network for Semantic Segmentation [6.4047628200011815]
本稿では,強い相関関係を持つ同質画素と弱い相関関係を持つ異質画素をモデル化する階層型コンテキストネットワークを提案する。
我々のアプローチでは、平均IoUは82.8%、全体的な精度は91.4%で、CityscapesとISPRS Vaihingenのデータセットは91.4%である。
論文 参考訳(メタデータ) (2020-10-10T09:51:17Z) - A U-Net Based Discriminator for Generative Adversarial Networks [86.67102929147592]
GAN(Generative Adversarial Network)のための代替U-Netベースの識別器アーキテクチャを提案する。
提案アーキテクチャにより,合成画像のグローバルコヒーレンスを維持しつつ,画素単位の詳細なフィードバックを生成元に提供することができる。
斬新な判別器は、標準分布と画像品質の指標の観点から、最先端の技術を向上する。
論文 参考訳(メタデータ) (2020-02-28T11:16:54Z) - Image Fine-grained Inpainting [89.17316318927621]
拡張畳み込みの密結合を利用してより大きく効果的な受容場を得る一段階モデルを提案する。
この効率的なジェネレータをよく訓練するために、頻繁に使用されるVGG特徴整合損失を除いて、新しい自己誘導回帰損失を設計する。
また、局所的・グローバルな分枝を持つ識別器を用いて、局所的・グローバルな内容の整合性を確保する。
論文 参考訳(メタデータ) (2020-02-07T03:45:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。