論文の概要: Nighttime Dehazing with a Synthetic Benchmark
- arxiv url: http://arxiv.org/abs/2008.03864v3
- Date: Mon, 19 Oct 2020 00:41:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-31 22:36:50.251001
- Title: Nighttime Dehazing with a Synthetic Benchmark
- Title(参考訳): 合成ベンチマークによる夜間デハジング
- Authors: Jing Zhang and Yang Cao and Zheng-Jun Zha and Dacheng Tao
- Abstract要約: 昼間の鮮明な画像から夜間のハズイ画像をシミュレートする3Rという新しい合成法を提案する。
実空間の光色を以前の経験的分布からサンプリングすることにより,現実的な夜間ハズイ画像を生成する。
実験結果は、画像の品質と実行時間の両方の観点から、最先端の手法よりも優れていることを示す。
- 参考スコア(独自算出の注目度): 147.21955799938115
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Increasing the visibility of nighttime hazy images is challenging because of
uneven illumination from active artificial light sources and haze
absorbing/scattering. The absence of large-scale benchmark datasets hampers
progress in this area. To address this issue, we propose a novel synthetic
method called 3R to simulate nighttime hazy images from daytime clear images,
which first reconstructs the scene geometry, then simulates the light rays and
object reflectance, and finally renders the haze effects. Based on it, we
generate realistic nighttime hazy images by sampling real-world light colors
from a prior empirical distribution. Experiments on the synthetic benchmark
show that the degrading factors jointly reduce the image quality. To address
this issue, we propose an optimal-scale maximum reflectance prior to
disentangle the color correction from haze removal and address them
sequentially. Besides, we also devise a simple but effective learning-based
baseline which has an encoder-decoder structure based on the MobileNet-v2
backbone. Experiment results demonstrate their superiority over
state-of-the-art methods in terms of both image quality and runtime. Both the
dataset and source code will be available at https://github.com/chaimi2013/3R.
- Abstract(参考訳): 夜間のハズ画像の視認性の向上は、アクティブな人工光源からの均一な照明と、ヘイズ吸収・散乱により困難である。
この領域では大規模なベンチマークデータセットが欠如している。
そこで,本研究では,まずシーンの形状を再現し,光線と物体反射をシミュレートし,最後にヘイズ効果を再現する,夜間のヘイズ画像をシミュレートする3rという新しい合成手法を提案する。
そこで,先行実験分布から実世界の光色をサンプリングし,夜景画像を生成する。
合成ベンチマーク実験により, 劣化要因は画像品質を低下させることがわかった。
そこで本研究では,色補正をヘイズ除去から切り離す前に最適な最大反射率を提案する。
さらに,mobilenet-v2 バックボーンに基づくエンコーダ・デコーダ構造を持つ,シンプルかつ効果的な学習ベースラインを考案する。
実験結果は、画像の品質と実行時間の両方の観点から、最先端の手法よりも優れていることを示す。
データセットとソースコードはhttps://github.com/chaimi2013/3Rで入手できる。
関連論文リスト
- Zero-Shot Enhancement of Low-Light Image Based on Retinex Decomposition [4.175396687130961]
本稿ではZERRINNetと呼ばれるゼロショット低照度化手法の学習に基づくRetinex分解を提案する。
本手法は,ペアとアンペアのデータセットのトレーニングデータの影響を受けないゼロ参照拡張手法である。
論文 参考訳(メタデータ) (2023-11-06T09:57:48Z) - Enhancing Visibility in Nighttime Haze Images Using Guided APSF and
Gradient Adaptive Convolution [28.685126418090338]
既存の夜間の脱暖法は、光や低照度の条件を扱うのにしばしば苦労する。
本稿では、光を抑え、低照度領域を高めることにより、夜間のハゼ画像からの視認性を高める。
GTA5夜間ヘイズデータセットでは,PSNRが30.38dBとなり,最先端の手法よりも13%向上した。
論文 参考訳(メタデータ) (2023-08-03T12:58:23Z) - NightHazeFormer: Single Nighttime Haze Removal Using Prior Query
Transformer [39.90066556289063]
我々はナイトヘイズフォーマー(NightHazeFormer)と呼ばれる夜間ヘイズ除去のためのエンドツーエンドのトランスフォーマーベースのフレームワークを提案する。
提案手法は,教師付き事前学習と半教師付き微調整の2段階からなる。
いくつかの合成および実世界のデータセットの実験は、最先端の夜間ヘイズ除去法よりもNightHazeFormerの方が優れていることを示している。
論文 参考訳(メタデータ) (2023-05-16T15:26:09Z) - Relightify: Relightable 3D Faces from a Single Image via Diffusion
Models [86.3927548091627]
単一画像からの3次元顔BRDF再構成を高精度に行うために,拡散モデルを用いた最初のアプローチを提案する。
既存の手法とは対照的に,観測されたテクスチャを直接入力画像から取得することで,より忠実で一貫した推定が可能となる。
論文 参考訳(メタデータ) (2023-05-10T11:57:49Z) - Real-Time Radiance Fields for Single-Image Portrait View Synthesis [85.32826349697972]
本研究では,1つの未提示画像からリアルタイムに3D表現を推測・描画するワンショット手法を提案する。
一つのRGB入力が与えられた場合、画像エンコーダは、ボリュームレンダリングによる3次元新規ビュー合成のためのニューラルラディアンスフィールドの標準三面体表現を直接予測する。
提案手法は消費者ハードウェア上で高速(24fps)であり,テスト時間最適化を必要とする強力なGAN反転ベースラインよりも高品質な結果が得られる。
論文 参考訳(メタデータ) (2023-05-03T17:56:01Z) - When the Sun Goes Down: Repairing Photometric Losses for All-Day Depth
Estimation [47.617222712429026]
既存の測光損失を昼夜両方の画像に有効にするための3つの手法の組み合わせについて述べる。
まず、連続するフレーム間で起こる光の変化を補うために、ピクセルごとの神経強度変換を導入する。
第2に,推定エゴモーションと深度によって引き起こされる再投影対応を補正するために,画素ごとの残留フローマップを推定する。
論文 参考訳(メタデータ) (2022-06-28T09:29:55Z) - Low-light Image Enhancement via Breaking Down the Darkness [8.707025631892202]
本稿では,分割・ルール原理に触発された新しい枠組みを提案する。
本稿では,RGB空間から輝度クロミナンス画像に変換することを提案する。
調整可能なノイズ抑制ネットワークは、輝度が明るくなるときにノイズを取り除くように設計されている。
強化された輝度はさらに、色マッパーが現実的な色を生成するためのガイダンスとなる。
論文 参考訳(メタデータ) (2021-11-30T16:50:59Z) - Degrade is Upgrade: Learning Degradation for Low-light Image Enhancement [52.49231695707198]
2段階の工程で細部と色を精錬しながら、内在的な劣化と低照度画像を照らし出す。
カラー画像の定式化に触発されて,まず低照度入力からの劣化を推定し,環境照明色の歪みをシミュレーションし,そのコンテンツを精錬して拡散照明色の損失を回復した。
LOL1000データセットではPSNRで0.95dB、ExDarkデータセットでは3.18%のmAPでSOTAを上回った。
論文 参考訳(メタデータ) (2021-03-19T04:00:27Z) - Relighting Images in the Wild with a Self-Supervised Siamese
Auto-Encoder [62.580345486483886]
本研究では,野生の単一ビュー画像の自己教師付きリライティング手法を提案する。
この方法は、イメージを2つの別々のエンコーディングに分解するオートエンコーダに基づいている。
Youtube 8MやCelebAなどの大規模データセットでモデルをトレーニングします。
論文 参考訳(メタデータ) (2020-12-11T16:08:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。