論文の概要: A GAN-Based Input-Size Flexibility Model for Single Image Dehazing
- arxiv url: http://arxiv.org/abs/2102.09796v1
- Date: Fri, 19 Feb 2021 08:27:17 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-22 17:25:17.292895
- Title: A GAN-Based Input-Size Flexibility Model for Single Image Dehazing
- Title(参考訳): 単一画像処理のためのGANベース入力サイズ柔軟性モデル
- Authors: Shichao Kan, Yue Zhang, Fanghui Zhang and Yigang Cen
- Abstract要約: 本稿では,単一画像デハジングの課題に焦点をあてる。
ヘイズフリーの画像を直接生成する新しいモデルを設計します。
この理由と画像サイズを考慮し,単一画像デハジングのための新たな入力サイズフレキシビリティ条件付き生成逆ネットワーク(cgan)を提案する。
- 参考スコア(独自算出の注目度): 16.83211957781034
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Image-to-image translation based on generative adversarial network (GAN) has
achieved state-of-the-art performance in various image restoration
applications. Single image dehazing is a typical example, which aims to obtain
the haze-free image of a haze one. This paper concentrates on the challenging
task of single image dehazing. Based on the atmospheric scattering model, we
design a novel model to directly generate the haze-free image. The main
challenge of image dehazing is that the atmospheric scattering model has two
parameters, i.e., transmission map and atmospheric light. When we estimate them
respectively, the errors will be accumulated to compromise dehazing quality.
Considering this reason and various image sizes, we propose a novel input-size
flexibility conditional generative adversarial network (cGAN) for single image
dehazing, which is input-size flexibility at both training and test stages for
image-to-image translation with cGAN framework. We propose a simple and
effective U-type residual network (UR-Net) to combine the generator and adopt
the spatial pyramid pooling (SPP) to design the discriminator. Moreover, the
model is trained with multi-loss function, in which the consistency loss is a
novel designed loss in this paper. We finally build a multi-scale cGAN fusion
model to realize state-of-the-art single image dehazing performance. The
proposed models receive a haze image as input and directly output a haze-free
one. Experimental results demonstrate the effectiveness and efficiency of the
proposed models.
- Abstract(参考訳): generative adversarial network (gan)に基づく画像から画像への翻訳は、様々な画像復元アプリケーションにおいて最先端のパフォーマンスを達成している。
単一画像デハジングは典型的な例であり、ヘイズフリーの画像を得るのが目的である。
本稿では,単一画像デハジングの課題に焦点をあてる。
大気散乱モデルに基づいて,ハゼフリー画像を直接生成する新しいモデルの設計を行う。
画像デハジングの主な課題は、大気散乱モデルが2つのパラメータ、すなわち透過マップと大気光を持つことである。
それぞれ推定すると、エラーが蓄積され、分解品質が損なわれます。
そこで,本稿では,cganフレームワークを用いた画像間変換のための学習段階とテスト段階の両方において,入力サイズの柔軟性を有する単一画像デハジング用入力サイズフレキシブル条件付き生成逆ネットワーク (cgan) を提案する。
本稿では, 簡易かつ効果的なU型残差ネットワーク (UR-Net) を提案し, 分割器の設計に空間ピラミッドプーリング (SPP) を採用する。
さらに, 本論文では, 整合性損失が新規に設計された損失であるマルチロス関数を用いてモデルを訓練する。
マルチスケールのcGAN融合モデルを構築し、最先端の単一画像脱処理性能を実現しました。
提案モデルは、入力としてヘイズ画像を受け取り、ヘイズフリーの画像を直接出力する。
実験結果は提案モデルの有効性と効率を示す。
関連論文リスト
- E$^{2}$GAN: Efficient Training of Efficient GANs for Image-to-Image Translation [69.72194342962615]
拡散モデルからGANを蒸留するプロセスは、より効率的にできるのか?
まず、一般化された特徴を持つベースGANモデルを構築し、微調整により異なる概念に適応し、スクラッチからトレーニングの必要性を排除した。
第2に,ベースモデル全体の微調整を行うのではなく,低ランク適応(LoRA)を簡易かつ効果的なランク探索プロセスで行う。
第3に、微調整に必要な最小限のデータ量を調査し、トレーニング時間を短縮する。
論文 参考訳(メタデータ) (2024-01-11T18:59:14Z) - Steered Diffusion: A Generalized Framework for Plug-and-Play Conditional
Image Synthesis [62.07413805483241]
Steered Diffusionは、無条件生成のために訓練された拡散モデルを用いたゼロショット条件画像生成のためのフレームワークである。
塗装,着色,テキスト誘導セマンティック編集,画像超解像などのタスクに対して,ステアリング拡散を用いた実験を行った。
論文 参考訳(メタデータ) (2023-09-30T02:03:22Z) - Breaking Through the Haze: An Advanced Non-Homogeneous Dehazing Method
based on Fast Fourier Convolution and ConvNeXt [14.917290578644424]
ヘイズは通常、低コントラスト、色の変化、構造歪みで劣化した画像につながる。
本稿では、2次元離散ウェーブレット変換(DWT)、高速フーリエ畳み込み(FFC)残差ブロック、事前訓練されたConvNeXtモデルを活用する2つの分岐ネットワークを提案する。
我々のモデルは、グローバルな文脈情報を効果的に探索し、知覚品質の高い画像を生成することができる。
論文 参考訳(メタデータ) (2023-05-08T02:59:02Z) - SinDiffusion: Learning a Diffusion Model from a Single Natural Image [159.4285444680301]
SinDiffusionは1つの自然な画像からパッチの内部分布を捉えるためにデノナイズ拡散モデルを利用する。
SinDiffusionは、2つのコア設計に基づいている。まず、SinDiffusionは、段階的にスケールが成長する複数のモデルではなく、1つのスケールで1つのモデルで訓練されている。
第2に,拡散ネットワークのパッチレベルの受容領域は,画像のパッチ統計を捉える上で重要かつ効果的であることを示す。
論文 参考訳(メタデータ) (2022-11-22T18:00:03Z) - Robust Single Image Dehazing Based on Consistent and Contrast-Assisted
Reconstruction [95.5735805072852]
画像復調モデルのロバスト性を改善するための新しい密度変分学習フレームワークを提案する。
具体的には、デハジングネットワークは、一貫性の規則化されたフレームワークの下で最適化されている。
我々の手法は最先端のアプローチを大きく上回っている。
論文 参考訳(メタデータ) (2022-03-29T08:11:04Z) - Meta Internal Learning [88.68276505511922]
単一画像生成のための内部学習は、単一の画像に基づいて新しい画像を生成するようにジェネレータを訓練するフレームワークである。
本稿では,サンプル画像の内部統計をより効果的にモデル化するために,画像集合のトレーニングを可能にするメタラーニング手法を提案する。
以上の結果から, 得られたモデルは, 多数の共通画像アプリケーションにおいて, シングルイメージのGANと同程度に適していることがわかった。
論文 参考訳(メタデータ) (2021-10-06T16:27:38Z) - Towards a Unified Approach to Single Image Deraining and Dehazing [16.383099109400156]
降雨効果の新しい物理モデルを開発し,その均一な連続限界として,ヘイズ効果のよく知られた大気散乱モデル(ASM)が自然に現れることを示した。
また,デレーシングとデヘイジングの両方に適した,密集したスケール接続型注意ネットワーク (dscan) を提案する。
論文 参考訳(メタデータ) (2021-03-26T01:35:43Z) - Dehaze-GLCGAN: Unpaired Single Image De-hazing via Adversarial Training [3.5788754401889014]
単一画像デハジングのためのデハジンググローバルローカルサイクル一貫性生成適応ネットワーク(Dehaze-GLCGAN)を提案する。
3つのベンチマークデータセットに対する実験により、ネットワークはPSNRとSSIMの点で過去の作業より優れていたことが判明した。
論文 参考訳(メタデータ) (2020-08-15T02:43:00Z) - FD-GAN: Generative Adversarial Networks with Fusion-discriminator for
Single Image Dehazing [48.65974971543703]
画像デハージングのためのFusion-Discriminator (FD-GAN) を用いた完全エンドツーエンドのジェネレータネットワークを提案する。
我々のモデルは、より自然でリアルなデハズド画像を生成することができ、色歪みは少なく、アーティファクトも少ない。
実験により, 提案手法は, 公開合成データセットと実世界の画像の両方において, 最先端の性能に達することが示された。
論文 参考訳(メタデータ) (2020-01-20T04:36:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。