論文の概要: NightHaze: Nighttime Image Dehazing via Self-Prior Learning
- arxiv url: http://arxiv.org/abs/2403.07408v1
- Date: Tue, 12 Mar 2024 08:35:42 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-13 22:22:46.769208
- Title: NightHaze: Nighttime Image Dehazing via Self-Prior Learning
- Title(参考訳): nighthaze: 自己優先学習による夜間画像のデハジング
- Authors: Beibei Lin, Yeying Jin, Wending Yan, Wei Ye, Yuan Yuan and Robby T.
Tan
- Abstract要約: Masked Autoencoder (MAE) は、訓練中の高度増強が高レベルのタスクに対して堅牢な表現をもたらすことを示す。
自己学習型夜間画像復調手法を提案する。
私たちのNightHaze、特に私たちのMAEのような自己学習は、厳しい拡張で訓練されたモデルが、入力されたヘイズ画像の視認性を効果的に改善することを示しています。
- 参考スコア(独自算出の注目度): 30.395213789178275
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Masked autoencoder (MAE) shows that severe augmentation during training
produces robust representations for high-level tasks. This paper brings the
MAE-like framework to nighttime image enhancement, demonstrating that severe
augmentation during training produces strong network priors that are resilient
to real-world night haze degradations. We propose a novel nighttime image
dehazing method with self-prior learning. Our main novelty lies in the design
of severe augmentation, which allows our model to learn robust priors. Unlike
MAE that uses masking, we leverage two key challenging factors of nighttime
images as augmentation: light effects and noise. During training, we
intentionally degrade clear images by blending them with light effects as well
as by adding noise, and subsequently restore the clear images. This enables our
model to learn clear background priors. By increasing the noise values to
approach as high as the pixel intensity values of the glow and light effect
blended images, our augmentation becomes severe, resulting in stronger priors.
While our self-prior learning is considerably effective in suppressing glow and
revealing details of background scenes, in some cases, there are still some
undesired artifacts that remain, particularly in the forms of over-suppression.
To address these artifacts, we propose a self-refinement module based on the
semi-supervised teacher-student framework. Our NightHaze, especially our
MAE-like self-prior learning, shows that models trained with severe
augmentation effectively improve the visibility of input haze images,
approaching the clarity of clear nighttime images. Extensive experiments
demonstrate that our NightHaze achieves state-of-the-art performance,
outperforming existing nighttime image dehazing methods by a substantial margin
of 15.5% for MUSIQ and 23.5% for ClipIQA.
- Abstract(参考訳): Masked Autoencoder (MAE) は、訓練中の高度増強が高レベルのタスクに対して堅牢な表現をもたらすことを示す。
本稿では,MAEのようなフレームワークを夜間画像強調に応用し,実世界の夜間ハゼ劣化に対する耐性の高いネットワーク先行処理の高度化を実証する。
自己優先学習を用いた新しい夜間画像デハジング手法を提案する。
私たちの主な目新しさは、モデルが堅牢な事前学習を可能にする、厳格な拡張の設計にあります。
マスクを使用するMAEとは異なり、夜間画像の2つの重要な難題は、光効果とノイズの増大である。
トレーニング中,光効果を混合し,ノイズを付加し,その後にクリアイメージを復元することで,故意にクリアイメージを劣化させる。
これにより、モデルは明確な背景を学習できます。
グロー効果と光効果をブレンドした画像の画素強度値に近づくノイズ値を増加させることで、増倍は重くなり、より前もってより強くなる。
私たちの自己優先学習は、輝きを抑え、背景シーンの詳細を明らかにするのにかなり効果的ですが、場合によっては、特に過剰抑圧の形で残る望ましくないアーティファクトもいくつかあります。
これらのアーティファクトに対処するために,半教師付き教師学習フレームワークに基づく自己定義モジュールを提案する。
私たちのNightHaze、特に私たちのMAEのような自己学習は、厳しい拡張で訓練されたモデルは、入力されたヘイズ画像の視認性を効果的に改善し、明確な夜間画像の明瞭さに近づいたことを示している。
大規模な実験により、我々のNightHazeは最先端のパフォーマンスを達成し、既存の夜間画像復調法をMUSIQで15.5%、ClipIQAで23.5%で上回った。
関連論文リスト
- Night-to-Day Translation via Illumination Degradation Disentanglement [51.77716565167767]
ナイト・トゥ・デイの翻訳は、夜間のシーンの昼のようなビジョンを達成することを目的としている。
複雑な劣化を伴う夜間画像の処理は 未熟な条件下では 重要な課題です
夜間画像の劣化パターンを識別するためにtextbfN2D3 を提案する。
論文 参考訳(メタデータ) (2024-11-21T08:51:32Z) - DAP-LED: Learning Degradation-Aware Priors with CLIP for Joint Low-light Enhancement and Deblurring [14.003870853594972]
DAP-LEDと呼ばれる新しい変圧器を用いた共同学習フレームワークを提案する。
低照度向上と劣化を共同で達成することができ、深度推定、セグメンテーション、暗黒での検知といった下流タスクの恩恵を受けることができる。
重要な洞察は、CLIPを活用して、夜間に画像から劣化レベルを適応的に学習することだ。
論文 参考訳(メタデータ) (2024-09-20T13:37:53Z) - FreeEnhance: Tuning-Free Image Enhancement via Content-Consistent Noising-and-Denoising Process [120.91393949012014]
FreeEnhanceは、既製の画像拡散モデルを用いたコンテンツ一貫性のある画像強調のためのフレームワークである。
ノイズ発生段階では、FreeEnhanceは、元の画像の高頻度パターンを保存するために、より周波数の高い領域により軽いノイズを加えるように考案されている。
この段階では3つの目標特性を予測された雑音の規則化の制約として提示し,高精度で視覚的品質の高い画像の強調を行う。
論文 参考訳(メタデータ) (2024-09-11T17:58:50Z) - Self-Supervised Monocular Depth Estimation in the Dark: Towards Data Distribution Compensation [24.382795861986803]
光度一貫性の仮定は、複雑な照明条件下で撮影されたビデオには通常違反するため、自己超越のために夜間画像を使用することは信頼できない。
本研究では,トレーニング中に夜間画像を使用しない夜間単眼深度推定手法を提案する。
論文 参考訳(メタデータ) (2024-04-22T03:39:03Z) - From Generation to Suppression: Towards Effective Irregular Glow Removal
for Nighttime Visibility Enhancement [22.565044107631696]
既存の低照度画像強調法 (LLIE) は、主に暗黒領域の明るさを改善するために設計されている。
これらの手法は、他の大きな視界の損傷である、夜間の夜景における光の影響を限定的に探究することができる。
大気点拡散関数(APSF)に基づく多重散乱推定による物理光発生の学習法を提案する。
提案手法はゼロショット学習に基づいており、ペアやアンペアのトレーニングデータに頼らず、光抑制と低照度強化の両方において提案手法の有効性を実証的に評価する。
論文 参考訳(メタデータ) (2023-07-31T15:51:15Z) - NightHazeFormer: Single Nighttime Haze Removal Using Prior Query
Transformer [39.90066556289063]
我々はナイトヘイズフォーマー(NightHazeFormer)と呼ばれる夜間ヘイズ除去のためのエンドツーエンドのトランスフォーマーベースのフレームワークを提案する。
提案手法は,教師付き事前学習と半教師付き微調整の2段階からなる。
いくつかの合成および実世界のデータセットの実験は、最先端の夜間ヘイズ除去法よりもNightHazeFormerの方が優れていることを示している。
論文 参考訳(メタデータ) (2023-05-16T15:26:09Z) - Masked Image Training for Generalizable Deep Image Denoising [53.03126421917465]
本稿では,デノナイジングネットワークの一般化性能を高めるための新しい手法を提案する。
提案手法では,入力画像のランダムなピクセルをマスキングし,学習中に欠落した情報を再構成する。
提案手法は,他のディープラーニングモデルよりも優れた一般化能力を示し,実世界のシナリオに直接適用可能である。
論文 参考訳(メタデータ) (2023-03-23T09:33:44Z) - When the Sun Goes Down: Repairing Photometric Losses for All-Day Depth
Estimation [47.617222712429026]
既存の測光損失を昼夜両方の画像に有効にするための3つの手法の組み合わせについて述べる。
まず、連続するフレーム間で起こる光の変化を補うために、ピクセルごとの神経強度変換を導入する。
第2に,推定エゴモーションと深度によって引き起こされる再投影対応を補正するために,画素ごとの残留フローマップを推定する。
論文 参考訳(メタデータ) (2022-06-28T09:29:55Z) - Learning Flow-based Feature Warping for Face Frontalization with
Illumination Inconsistent Supervision [73.18554605744842]
Flow-based Feature Warping Model (FFWM) は、正面画像を保存するフォトリアリスティックおよび照明の合成を学ぶ。
Illumination Preserving Module (IPM) を提案する。
Warp Attention Module (WAM) は、機能レベルでのポーズの相違を低減するために導入された。
論文 参考訳(メタデータ) (2020-08-16T06:07:00Z) - Unsupervised Low-light Image Enhancement with Decoupled Networks [103.74355338972123]
我々は、実世界の低照度画像を教師なしで拡張する2段階のGANベースのフレームワークを学習する。
提案手法は,照度向上と雑音低減の両面から,最先端の教師なし画像強調法より優れる。
論文 参考訳(メタデータ) (2020-05-06T13:37:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。