論文の概要: Seeing Beyond Haze: Generative Nighttime Image Dehazing
- arxiv url: http://arxiv.org/abs/2503.08073v1
- Date: Tue, 11 Mar 2025 06:08:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-12 15:43:42.951677
- Title: Seeing Beyond Haze: Generative Nighttime Image Dehazing
- Title(参考訳): ヘイズを超えて見る: 夜の映像を生み出す
- Authors: Beibei Lin, Stephen Lin, Robby Tan,
- Abstract要約: BeyondHazeは、発生的夜間脱ハージング手法で、欠落している可能性のある地域で、背景情報を推測する。
本手法は,夜間デハージング問題に対する画像拡散モデルの適用による背景背景の強弱化と,ガイド付きトレーニングによるヘイズ・アンド・グローオブサークシーン領域の生成能力の向上という,2つの主要な考え方に基づいて開発されている。
実世界の画像での実験では、BeyondHazeは夜間の密集した迷路の視界を効果的に回復することを示した。
- 参考スコア(独自算出の注目度): 16.949777020546264
- License:
- Abstract: Nighttime image dehazing is particularly challenging when dense haze and intense glow severely degrade or completely obscure background information. Existing methods often encounter difficulties due to insufficient background priors and limited generative ability, both essential for handling such conditions. In this paper, we introduce BeyondHaze, a generative nighttime dehazing method that not only significantly reduces haze and glow effects but also infers background information in regions where it may be absent. Our approach is developed on two main ideas: gaining strong background priors by adapting image diffusion models to the nighttime dehazing problem, and enhancing generative ability for haze- and glow-obscured scene areas through guided training. Task-specific nighttime dehazing knowledge is distilled into an image diffusion model in a manner that preserves its capacity to generate clean images. The diffusion model is additionally trained on image pairs designed to improve its ability to generate background details and content that are missing in the input image due to haze effects. Since generative models are susceptible to hallucinations, we develop our framework to allow user control over the generative level, balancing visual realism and factual accuracy. Experiments on real-world images demonstrate that BeyondHaze effectively restores visibility in dense nighttime haze.
- Abstract(参考訳): 濃密な迷路や強烈な輝きがひどく劣化したり、完全にぼやけた背景情報がある場合、夜間の露光は特に困難である。
既存の手法は、背景が不十分で、生成能力が限られているため、しばしば困難に陥る。
本稿では, 夜間脱ハズ法であるBeyondHazeを紹介する。これは, 夜間脱ハズ法であり, 発光効果を著しく低減するだけでなく, 欠落する可能性のある地域での背景情報を推測する。
本手法は,夜間デハージング問題に対する画像拡散モデルの適用による背景背景の強弱化と,ガイド付きトレーニングによるヘイズ・アンド・グローオブサークシーン領域の生成能力の向上という,2つの主要な考え方に基づいて開発されている。
タスク固有の夜間デハージング知識を、クリーンな画像を生成する能力を保持する方法で、画像拡散モデルに蒸留する。
拡散モデルはまた、背景の詳細と、ヘイズ効果により入力画像に欠けている内容を生成する能力を改善するために設計された画像対を訓練する。
生成モデルは幻覚の影響を受けやすいため,視覚的リアリズムと事実的精度のバランスを保ちながら,生成レベルをユーザが制御できるフレームワークを開発した。
実世界の画像での実験では、BeyondHazeは夜間の密集した迷路の視界を効果的に回復することを示した。
関連論文リスト
- Zero-Shot Low Light Image Enhancement with Diffusion Prior [2.102429358229889]
暗視画像変換タスクのための拡散モデルの生成挙動を制御・改善するための新しいゼロショット手法を提案する。
提案手法は,低照度画像強調作業における既存の最先端手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2024-12-18T00:31:18Z) - Learning Flow Fields in Attention for Controllable Person Image Generation [59.10843756343987]
制御可能な人物画像生成は、参照画像に条件付けされた人物画像を生成することを目的としている。
そこで本研究では,対象クエリに対して,適切な参照キーへの参照を明示的にガイドする学習フロー場(Leffa)を提案する。
Leffaは外観(仮想試行)とポーズ(目的移動)の制御における最先端のパフォーマンスを実現し、細かなディテール歪みを著しく低減する。
論文 参考訳(メタデータ) (2024-12-11T15:51:14Z) - NightHaze: Nighttime Image Dehazing via Self-Prior Learning [28.685126418090338]
Masked Autoencoder (MAE) は、訓練中の高度増強が高レベルのタスクに対して堅牢な表現をもたらすことを示す。
自己学習型夜間画像復調手法を提案する。
私たちのNightHaze、特に私たちのMAEのような自己学習は、厳しい拡張で訓練されたモデルが、入力されたヘイズ画像の視認性を効果的に改善することを示しています。
論文 参考訳(メタデータ) (2024-03-12T08:35:42Z) - Enhancing Visibility in Nighttime Haze Images Using Guided APSF and
Gradient Adaptive Convolution [28.685126418090338]
既存の夜間の脱暖法は、光や低照度の条件を扱うのにしばしば苦労する。
本稿では、光を抑え、低照度領域を高めることにより、夜間のハゼ画像からの視認性を高める。
GTA5夜間ヘイズデータセットでは,PSNRが30.38dBとなり,最先端の手法よりも13%向上した。
論文 参考訳(メタデータ) (2023-08-03T12:58:23Z) - NightHazeFormer: Single Nighttime Haze Removal Using Prior Query
Transformer [39.90066556289063]
我々はナイトヘイズフォーマー(NightHazeFormer)と呼ばれる夜間ヘイズ除去のためのエンドツーエンドのトランスフォーマーベースのフレームワークを提案する。
提案手法は,教師付き事前学習と半教師付き微調整の2段階からなる。
いくつかの合成および実世界のデータセットの実験は、最先端の夜間ヘイズ除去法よりもNightHazeFormerの方が優れていることを示している。
論文 参考訳(メタデータ) (2023-05-16T15:26:09Z) - SCANet: Self-Paced Semi-Curricular Attention Network for Non-Homogeneous
Image Dehazing [56.900964135228435]
既存の均質脱ハージング法は、強靭な方法でヘイズの不均一分布を扱うのに苦労する。
非均質なイメージデハージングのための,SCANet と呼ばれる新しい自己ペースト半曲的アテンションネットワークを提案する。
本手法は,アテンションジェネレータネットワークとシーン再構築ネットワークから構成される。
論文 参考訳(メタデータ) (2023-04-17T17:05:29Z) - See Blue Sky: Deep Image Dehaze Using Paired and Unpaired Training
Images [73.23687409870656]
本稿では,新しいエンドツーエンド画像デヘイズモデルを構築するために,サイクル生成対向ネットワークを提案する。
我々は、実世界の未ペア画像データセットとペア画像データセットのセットを含む、私たちのモデルをトレーニングするために、屋外画像データセットを採用しています。
本モデルでは, サイクル構造に基づいて, 対向損失, サイクル整合損失, フォトリアリズム損失, ペアL1損失を含む4種類の損失関数を付加した。
論文 参考訳(メタデータ) (2022-10-14T07:45:33Z) - Unsupervised Neural Rendering for Image Hazing [31.108654945661705]
Image hazingは、ゲーム、撮影、写真のフィルタリング、画像のデハージングなど、さまざまな実用用途に適用可能な、クリーンな画像からヘイズな画像をレンダリングすることを目的としている。
本稿では,ハゼゲンと呼ばれる画像のレンダリング手法を提案する。具体的には,ハゼゲンは知識駆動型ニューラルネットワークであり,新しい先行情報を利用して送信マップを推定する。
エアライトを適応的に学習するために、別の新しい先行技術に基づいてニューラルモジュールを構築する。
論文 参考訳(メタデータ) (2021-07-14T13:15:14Z) - Non-Homogeneous Haze Removal via Artificial Scene Prior and
Bidimensional Graph Reasoning [52.07698484363237]
本研究では,人工シーンの前置と2次元グラフ推論による不均質なヘイズ除去ネットワーク(nhrn)を提案する。
本手法は,単一画像デハジングタスクとハイザイ画像理解タスクの両方において,最先端アルゴリズムよりも優れた性能を実現する。
論文 参考訳(メタデータ) (2021-04-05T13:04:44Z) - Learning Flow-based Feature Warping for Face Frontalization with
Illumination Inconsistent Supervision [73.18554605744842]
Flow-based Feature Warping Model (FFWM) は、正面画像を保存するフォトリアリスティックおよび照明の合成を学ぶ。
Illumination Preserving Module (IPM) を提案する。
Warp Attention Module (WAM) は、機能レベルでのポーズの相違を低減するために導入された。
論文 参考訳(メタデータ) (2020-08-16T06:07:00Z) - Nighttime Dehazing with a Synthetic Benchmark [147.21955799938115]
昼間の鮮明な画像から夜間のハズイ画像をシミュレートする3Rという新しい合成法を提案する。
実空間の光色を以前の経験的分布からサンプリングすることにより,現実的な夜間ハズイ画像を生成する。
実験結果は、画像の品質と実行時間の両方の観点から、最先端の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-08-10T02:16:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。