論文の概要: Diving into Darkness: A Dual-Modulated Framework for High-Fidelity
Super-Resolution in Ultra-Dark Environments
- arxiv url: http://arxiv.org/abs/2309.05267v1
- Date: Mon, 11 Sep 2023 06:55:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-12 13:39:15.661823
- Title: Diving into Darkness: A Dual-Modulated Framework for High-Fidelity
Super-Resolution in Ultra-Dark Environments
- Title(参考訳): 超暗黒環境における高忠実度超解法のための二重変調フレームワーク
- Authors: Jiaxin Gao, Ziyu Yue, Yaohua Liu, Sihan Xie, Xin Fan, Risheng Liu
- Abstract要約: 本稿では,低照度超解像課題の性質を深く理解しようとする,特殊二変調学習フレームワークを提案する。
Illuminance-Semantic Dual Modulation (ISDM) コンポーネントを開発した。
包括的実験は、我々のアプローチが多様で挑戦的な超低照度条件に適用可能であることを示す。
- 参考スコア(独自算出の注目度): 51.58771256128329
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Super-resolution tasks oriented to images captured in ultra-dark environments
is a practical yet challenging problem that has received little attention. Due
to uneven illumination and low signal-to-noise ratio in dark environments, a
multitude of problems such as lack of detail and color distortion may be
magnified in the super-resolution process compared to normal-lighting
environments. Consequently, conventional low-light enhancement or
super-resolution methods, whether applied individually or in a cascaded manner
for such problem, often encounter limitations in recovering luminance, color
fidelity, and intricate details. To conquer these issues, this paper proposes a
specialized dual-modulated learning framework that, for the first time,
attempts to deeply dissect the nature of the low-light super-resolution task.
Leveraging natural image color characteristics, we introduce a self-regularized
luminance constraint as a prior for addressing uneven lighting. Expanding on
this, we develop Illuminance-Semantic Dual Modulation (ISDM) components to
enhance feature-level preservation of illumination and color details. Besides,
instead of deploying naive up-sampling strategies, we design the
Resolution-Sensitive Merging Up-sampler (RSMU) module that brings together
different sampling modalities as substrates, effectively mitigating the
presence of artifacts and halos. Comprehensive experiments showcases the
applicability and generalizability of our approach to diverse and challenging
ultra-low-light conditions, outperforming state-of-the-art methods with a
notable improvement (i.e., $\uparrow$5\% in PSNR, and $\uparrow$43\% in LPIPS).
Especially noteworthy is the 19-fold increase in the RMSE score, underscoring
our method's exceptional generalization across different darkness levels. The
code will be available online upon publication of the paper.
- Abstract(参考訳): 超暗黒環境で撮影された画像に指向した超解像タスクは、実用的で挑戦的な問題であり、ほとんど注目されていない。
暗黒環境における照度の不均一さと信号対雑音比の低さにより、ディテールの欠如や色歪みなどの様々な問題が、通常の照明環境と比較して超高分解能過程において拡大される可能性がある。
そのため、従来の低照度増強法や超解像法は、個別に、あるいはカスケード的に適用しても、輝度の回復、色忠実性、複雑な詳細に制限があることが多い。
これらの課題を克服するため,本稿では,低光度超解像タスクの性質を深く解明する試みを初めて行う,デュアルモーダル学習フレームワークを提案する。
自然画像の色彩特性を生かして、不均一な照明に先行する自己規則化輝度制約を導入する。
そこで我々は,照度と色調の高次保存を実現するために,ISDM (Illuminance-Semantic Dual Modulation) コンポーネントを開発した。
さらに,単純なアップサンプリング戦略を展開する代わりに,異なるサンプリングモードを基板として結合し,アーティファクトとhalosの存在を効果的に緩和する,解像度に敏感なup-sampler(rsmu)モジュールを設計した。
包括的実験により,超低光度条件の多様かつ挑戦的な手法の適用可能性と一般化性が示され,顕著な改善(psnrでは$\uparrow$5\%,lpipsでは$\uparrow$43\%)が得られた。
特に注目すべきは、RMSEスコアの19倍の増加であり、異なる暗黒レベルにわたる我々の方法の例外的な一般化を裏付けている。
コードは論文の発行時にオンラインで入手できる。
関連論文リスト
- Dual High-Order Total Variation Model for Underwater Image Restoration [13.789310785350484]
水中画像の高画質化と復元(UIER)は,水中画像の画質向上のための重要な手段である。
拡張水中画像形成モデル(UIFM)に基づく効果的な変分フレームワークを提案する。
提案フレームワークでは,重み係数に基づく色補正とカラーバランスを組み合わせることで,減衰した色チャネルを補償し,色キャストを除去する。
論文 参考訳(メタデータ) (2024-07-20T13:06:37Z) - CodeEnhance: A Codebook-Driven Approach for Low-Light Image Enhancement [97.95330185793358]
低照度画像強調(LLIE)は、低照度画像を改善することを目的としている。
既存の手法では、様々な明るさ劣化からの回復の不確実性と、テクスチャと色情報の喪失という2つの課題に直面している。
我々は、量子化された先行値と画像の精細化を利用して、新しいエンハンスメント手法、CodeEnhanceを提案する。
論文 参考訳(メタデータ) (2024-04-08T07:34:39Z) - You Only Need One Color Space: An Efficient Network for Low-light Image Enhancement [50.37253008333166]
低照度画像強調(LLIE)タスクは、劣化した低照度画像から詳細と視覚情報を復元する傾向がある。
水平/垂直インテンシティ(HVI)と呼ばれる新しいトレーニング可能なカラー空間を提案する。
輝度と色をRGBチャネルから切り離して、拡張中の不安定性を緩和するだけでなく、トレーニング可能なパラメータによって異なる照明範囲の低照度画像にも適応する。
論文 参考訳(メタデータ) (2024-02-08T16:47:43Z) - A Non-Uniform Low-Light Image Enhancement Method with Multi-Scale
Attention Transformer and Luminance Consistency Loss [11.585269110131659]
低照度画像強調は、薄暗い環境で収集された画像の知覚を改善することを目的としている。
既存の方法では、識別された輝度情報を適応的に抽出することができず、露光過多や露光過多を容易に引き起こすことができる。
MSATrというマルチスケールアテンション変換器を提案し,光バランスの局所的・グローバル的特徴を十分に抽出し,視覚的品質を向上させる。
論文 参考訳(メタデータ) (2023-12-27T10:07:11Z) - Revealing Shadows: Low-Light Image Enhancement Using Self-Calibrated
Illumination [4.913568097686369]
自己校正イルミネーション(Self-Calibrated Illumination, SCI)は、当初RGB画像向けに開発された戦略である。
我々はSCI法を用いて、低照度条件下で通常失われる詳細を強調・明らかにする。
この選択的照明強調方法は、色情報をそのまま残し、画像の色整合性を保つ。
論文 参考訳(メタデータ) (2023-12-23T08:49:19Z) - Dimma: Semi-supervised Low Light Image Enhancement with Adaptive Dimming [0.728258471592763]
自然色を維持しながら低照度画像を強調することは、カメラ処理のバリエーションによって難しい問題である。
そこで我々はDimmaを提案する。Dimmaは、画像対の小さなセットを利用して、任意のカメラと整合する半教師付きアプローチである。
そこで我々は,照明の違いに基づいて,シーンの歪み色を生成する畳み込み混合密度ネットワークを導入することで実現した。
論文 参考訳(メタデータ) (2023-10-14T17:59:46Z) - Low-Light Image Enhancement with Illumination-Aware Gamma Correction and
Complete Image Modelling Network [69.96295927854042]
低照度環境は通常、情報の少ない大規模な暗黒地帯に繋がる。
本稿では,ガンマ補正の有効性を深層ネットワークのモデリング能力と統合することを提案する。
指数関数演算は高い計算複雑性をもたらすので、Taylor Series を用いてガンマ補正を近似することを提案する。
論文 参考訳(メタデータ) (2023-08-16T08:46:51Z) - Degrade is Upgrade: Learning Degradation for Low-light Image Enhancement [52.49231695707198]
2段階の工程で細部と色を精錬しながら、内在的な劣化と低照度画像を照らし出す。
カラー画像の定式化に触発されて,まず低照度入力からの劣化を推定し,環境照明色の歪みをシミュレーションし,そのコンテンツを精錬して拡散照明色の損失を回復した。
LOL1000データセットではPSNRで0.95dB、ExDarkデータセットでは3.18%のmAPでSOTAを上回った。
論文 参考訳(メタデータ) (2021-03-19T04:00:27Z) - Unsupervised Low-light Image Enhancement with Decoupled Networks [103.74355338972123]
我々は、実世界の低照度画像を教師なしで拡張する2段階のGANベースのフレームワークを学習する。
提案手法は,照度向上と雑音低減の両面から,最先端の教師なし画像強調法より優れる。
論文 参考訳(メタデータ) (2020-05-06T13:37:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。