論文の概要: Bridge the Vision Gap from Field to Command: A Deep Learning Network
Enhancing Illumination and Details
- arxiv url: http://arxiv.org/abs/2101.08039v1
- Date: Wed, 20 Jan 2021 09:39:57 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-22 01:30:45.584578
- Title: Bridge the Vision Gap from Field to Command: A Deep Learning Network
Enhancing Illumination and Details
- Title(参考訳): 視野からコマンドへのビジョンギャップをブリッジする:照度と詳細を取り入れたディープラーニングネットワーク
- Authors: Zhuqing Jiang, Chang Liu, Ya'nan Wang, Kai Li, Aidong Men, Haiying
Wang, Haiyong Luo
- Abstract要約: 我々は,明るさを調整し,細部を同時に強化する2ストリームフレームワークNEIDを提案する。
提案手法は,光強調 (LE), 細粒化 (DR), 特徴拡散 (FF) モジュールの3つの部分から構成される。
- 参考スコア(独自算出の注目度): 17.25188250076639
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the goal of tuning up the brightness, low-light image enhancement enjoys
numerous applications, such as surveillance, remote sensing and computational
photography. Images captured under low-light conditions often suffer from poor
visibility and blur. Solely brightening the dark regions will inevitably
amplify the blur, thus may lead to detail loss. In this paper, we propose a
simple yet effective two-stream framework named NEID to tune up the brightness
and enhance the details simultaneously without introducing many computational
costs. Precisely, the proposed method consists of three parts: Light
Enhancement (LE), Detail Refinement (DR) and Feature Fusing (FF) module, which
can aggregate composite features oriented to multiple tasks based on channel
attention mechanism. Extensive experiments conducted on several benchmark
datasets demonstrate the efficacy of our method and its superiority over
state-of-the-art methods.
- Abstract(参考訳): 明るさを調整することを目的として、低光度画像強調は監視、リモートセンシング、計算写真など多くの応用を享受している。
低照度条件下で撮影された画像は視界が悪く、ぼやけていることが多い。
暗い領域だけを明るくすることは必然的にぼやけを増幅するので、細部が失われる可能性がある。
本稿では,多くの計算コストを伴わずに,明るさを調整し,細部を同時に強化する,シンプルで効果的な2ストリームフレームワークNEIDを提案する。
正確には、提案手法は、光強調(le)、詳細精細(dr)、機能融合(ff)モジュールの3つの部分から構成されている。
いくつかのベンチマークデータセットで行った広範囲な実験により、本手法の有効性と最先端手法に対する優位性が実証された。
関連論文リスト
- Light the Night: A Multi-Condition Diffusion Framework for Unpaired Low-Light Enhancement in Autonomous Driving [45.97279394690308]
LightDiffは、自動運転アプリケーションの低照度画像品質を高めるために設計されたフレームワークである。
深度マップ、RGB画像、テキストキャプションなど、様々なモードから入力重みを適応的に制御する新しいマルチコンディションアダプタが組み込まれている。
夜間の条件下での最先端の3D検出器の性能を著しく向上し、高い視覚的品質のスコアを達成できる。
論文 参考訳(メタデータ) (2024-04-07T04:10:06Z) - A Non-Uniform Low-Light Image Enhancement Method with Multi-Scale
Attention Transformer and Luminance Consistency Loss [11.585269110131659]
低照度画像強調は、薄暗い環境で収集された画像の知覚を改善することを目的としている。
既存の方法では、識別された輝度情報を適応的に抽出することができず、露光過多や露光過多を容易に引き起こすことができる。
MSATrというマルチスケールアテンション変換器を提案し,光バランスの局所的・グローバル的特徴を十分に抽出し,視覚的品質を向上させる。
論文 参考訳(メタデータ) (2023-12-27T10:07:11Z) - LDM-ISP: Enhancing Neural ISP for Low Light with Latent Diffusion Models [54.93010869546011]
本稿では,事前学習した潜伏拡散モデルを用いて,超低照度画像の高精細化のためのニューラルISPを実現することを提案する。
具体的には、RAWドメイン上で動作するために事前訓練された潜在拡散モデルを調整するために、軽量なテーミングモジュールのセットをトレーニングする。
遅延拡散モデルにおけるUNet復調と復号化の異なる役割を観察し、低照度画像強調タスクを遅延空間低周波コンテンツ生成と復号位相高周波ディテール保守に分解するきっかけとなる。
論文 参考訳(メタデータ) (2023-12-02T04:31:51Z) - Diving into Darkness: A Dual-Modulated Framework for High-Fidelity
Super-Resolution in Ultra-Dark Environments [51.58771256128329]
本稿では,低照度超解像課題の性質を深く理解しようとする,特殊二変調学習フレームワークを提案する。
Illuminance-Semantic Dual Modulation (ISDM) コンポーネントを開発した。
包括的実験は、我々のアプローチが多様で挑戦的な超低照度条件に適用可能であることを示す。
論文 参考訳(メタデータ) (2023-09-11T06:55:32Z) - CDAN: Convolutional dense attention-guided network for low-light image enhancement [2.2530496464901106]
低照度画像は、明度が低下し、色が変色し、細部が小さくなるという課題を生んでいる。
本稿では,低照度画像を改善するための新しいソリューションであるCDAN(Convolutional Dense Attention-guided Network)を紹介する。
CDANは自動エンコーダベースのアーキテクチャと、アテンション機構とスキップ接続によって補完される、畳み込みブロックと密集ブロックを統合している。
論文 参考訳(メタデータ) (2023-08-24T16:22:05Z) - Low-Light Image Enhancement with Illumination-Aware Gamma Correction and
Complete Image Modelling Network [69.96295927854042]
低照度環境は通常、情報の少ない大規模な暗黒地帯に繋がる。
本稿では,ガンマ補正の有効性を深層ネットワークのモデリング能力と統合することを提案する。
指数関数演算は高い計算複雑性をもたらすので、Taylor Series を用いてガンマ補正を近似することを提案する。
論文 参考訳(メタデータ) (2023-08-16T08:46:51Z) - Enhancing Low-Light Images Using Infrared-Encoded Images [81.8710581927427]
従来の芸術は、主にピクセルワイド・ロスを用いて可視光スペクトルで捉えた低照度画像に焦点を当てていた。
我々は,赤外線カットオフフィルタを除去することにより,低照度環境下で撮影された画像の可視性を高める新しい手法を提案する。
論文 参考訳(メタデータ) (2023-07-09T08:29:19Z) - Learnable Differencing Center for Nighttime Depth Perception [39.455428679154934]
我々は LDCNet というシンプルなフレームワークを提案する。
我々のキーとなる考え方は、夜間のカラー画像を改善するために、Recurrent Inter-Convolution Difference (RICD) と Illumination-Affinitive Inter-Convolution Difference (IAICD) を使用することである。
夜間深度推定タスクと夜間深度推定タスクの両方において,LDCNetの有効性を実験的に検証した。
論文 参考訳(メタデータ) (2023-06-26T09:21:13Z) - Perceptual Multi-Exposure Fusion [0.5076419064097732]
本稿では,細かなシャドウ/ハイライトの詳細を確実にするが,詳細化法よりも複雑さが低い知覚的マルチ露光融合法を提案する。
167個の画像シーケンスを含む静的シーンに適した大規模マルチ露光ベンチマークデータセットを構築した。
構築したデータセットの実験では,提案手法が既存の8つの最先端手法を視覚的およびMEF-SSIM値で上回ることを示した。
論文 参考訳(メタデータ) (2022-10-18T05:34:58Z) - Low-Light Video Enhancement with Synthetic Event Guidance [188.7256236851872]
我々は、複数のフレームから合成イベントを使用して、低照度ビデオの強化と復元を誘導する。
本手法は,合成と実の両方のLLVEデータセットにおいて,既存の低照度映像や単一画像強調手法より優れる。
論文 参考訳(メタデータ) (2022-08-23T14:58:29Z) - Degrade is Upgrade: Learning Degradation for Low-light Image Enhancement [52.49231695707198]
2段階の工程で細部と色を精錬しながら、内在的な劣化と低照度画像を照らし出す。
カラー画像の定式化に触発されて,まず低照度入力からの劣化を推定し,環境照明色の歪みをシミュレーションし,そのコンテンツを精錬して拡散照明色の損失を回復した。
LOL1000データセットではPSNRで0.95dB、ExDarkデータセットでは3.18%のmAPでSOTAを上回った。
論文 参考訳(メタデータ) (2021-03-19T04:00:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。