論文の概要: CGGAN: A Context Guided Generative Adversarial Network For Single Image
Dehazing
- arxiv url: http://arxiv.org/abs/2005.13884v1
- Date: Thu, 28 May 2020 10:14:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-27 06:05:10.432326
- Title: CGGAN: A Context Guided Generative Adversarial Network For Single Image
Dehazing
- Title(参考訳): CGGAN:単一画像デハジングのためのコンテキストガイド付きジェネレーターネットワーク
- Authors: Zhaorun Zhou, Zhenghao Shi, Mingtao Guo, Yaning Feng, Minghua Zhao
- Abstract要約: 本稿では,単一画像デハージングのための新しいコンテクストガイド生成適応ネットワーク(CGGAN)を提案する。
特徴抽出ネット、文脈抽出ネット、および連続した融合ネットから構成される。
実験の結果,提案したCGGANの利点と有効性を示した。
- 参考スコア(独自算出の注目度): 4.629828549040666
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Image haze removal is highly desired for the application of computer vision.
This paper proposes a novel Context Guided Generative Adversarial Network
(CGGAN) for single image dehazing. Of which, an novel new encoder-decoder is
employed as the generator. And it consists of a feature-extraction-net, a
context-extractionnet, and a fusion-net in sequence. The feature extraction-net
acts as a encoder, and is used for extracting haze features. The
context-extraction net is a multi-scale parallel pyramid decoder, and is used
for extracting the deep features of the encoder and generating coarse dehazing
image. The fusion-net is a decoder, and is used for obtaining the final
haze-free image. To obtain more better results, multi-scale information
obtained during the decoding process of the context extraction decoder is used
for guiding the fusion decoder. By introducing an extra coarse decoder to the
original encoder-decoder, the CGGAN can make better use of the deep feature
information extracted by the encoder. To ensure our CGGAN work effectively for
different haze scenarios, different loss functions are employed for the two
decoders. Experiments results show the advantage and the effectiveness of our
proposed CGGAN, evidential improvements over existing state-of-the-art methods
are obtained.
- Abstract(参考訳): 画像ヘイズ除去はコンピュータビジョンの応用に非常に望まれている。
本稿では,単一画像デハージングのための新しいコンテクストガイド生成適応ネットワーク(CGGAN)を提案する。
その内、新しいエンコーダデコーダがジェネレータとして使用される。
そして、特徴抽出ネット、文脈抽出ネット、および連続した融合ネットで構成される。
特徴抽出ネットはエンコーダとして機能し、ヘイズの特徴抽出に用いられる。
context-extraction netはマルチスケールの並列ピラミッドデコーダであり、エンコーダの深い特徴の抽出と粗いデハジング画像の生成に使用される。
fusion-netはデコーダであり、最終的なhazeフリー画像を取得するために使用される。
より良好な結果を得るため、コンテキスト抽出デコーダのデコードプロセス中に得られたマルチスケール情報が、フュージョンデコーダの案内に使用される。
元のエンコーダデコーダに余分な粗いデコーダを導入することにより、CGGANは、エンコーダによって抽出された深い特徴情報をよりよく利用することができる。
異なるヘイズシナリオに対してCGGANを効果的に動作させるために、2つのデコーダに対して異なる損失関数が使用される。
実験の結果,提案したCGGANの利点と有効性を示し,既存の最先端手法に対する明らかな改善が得られた。
関連論文リスト
- DiffCut: Catalyzing Zero-Shot Semantic Segmentation with Diffusion Features and Recursive Normalized Cut [62.63481844384229]
ファンデーションモデルは、言語、ビジョン、マルチモーダルタスクなど、さまざまな領域にまたがる強力なツールとして登場した。
本稿では,拡散UNetエンコーダを基礎ビジョンエンコーダとして使用し,教師なしゼロショットセグメンテーション手法であるDiffCutを紹介する。
我々の研究は、拡散UNetエンコーダに埋め込まれた極めて正確なセマンティック知識を強調し、下流タスクの基盤ビジョンエンコーダとして機能する。
論文 参考訳(メタデータ) (2024-06-05T01:32:31Z) - More complex encoder is not all you need [0.882348769487259]
我々は,強力なデコーダを構築するために,新しいサブピクセル・コンボリューションを組み込んだneU-Net(複雑なエンコーダではないU-Net)を導入する。
我々のモデル設計は、SynapseとACDCの両方のデータセット上で、最先端の手法を上回る優れた結果が得られる。
論文 参考訳(メタデータ) (2023-09-20T08:34:38Z) - AWEncoder: Adversarial Watermarking Pre-trained Encoders in Contrastive
Learning [18.90841192412555]
コントラスト学習において,事前学習したエンコーダをウォーターマークする逆法であるAWEncoderを導入する。
提案した研究は、異なるコントラスト学習アルゴリズムや下流タスクにおいて、極めて優れた有効性と堅牢性を持っている。
論文 参考訳(メタデータ) (2022-08-08T07:23:37Z) - LoopITR: Combining Dual and Cross Encoder Architectures for Image-Text
Retrieval [117.15862403330121]
共同学習のためのネットワークにおいて,デュアルエンコーダとクロスエンコーダを組み合わせたLoopITRを提案する。
具体的には、二重エンコーダをクロスエンコーダに強陰性を与え、より識別性の高いクロスエンコーダを用いてその予測を二重エンコーダに戻す。
論文 参考訳(メタデータ) (2022-03-10T16:41:12Z) - Reducing Redundancy in the Bottleneck Representation of the Autoencoders [98.78384185493624]
オートエンコーダは教師なしニューラルネットワークの一種であり、様々なタスクを解くのに使用できる。
本稿では,ボトルネック表現における特徴冗長性を明示的に罰する手法を提案する。
我々は,3つの異なるデータセットを用いた次元削減,MNISTデータセットを用いた画像圧縮,ファッションMNISTを用いた画像デノナイズという,さまざまなタスクにまたがってアプローチを検証した。
論文 参考訳(メタデータ) (2022-02-09T18:48:02Z) - D-Unet: A Dual-encoder U-Net for Image Splicing Forgery Detection and
Localization [108.8592577019391]
画像スプライシング偽造検出は、画像指紋によって改ざんされた領域と非改ざんされた領域を区別するグローバルバイナリ分類タスクである。
画像スプライシングフォージェリ検出のためのデュアルエンコーダU-Net(D-Unet)という,固定されていないエンコーダと固定エンコーダを用いた新しいネットワークを提案する。
D-Unetと最先端技術の比較実験において、D-Unetは画像レベルおよび画素レベルの検出において他の手法よりも優れていた。
論文 参考訳(メタデータ) (2020-12-03T10:54:02Z) - Two-stream Encoder-Decoder Network for Localizing Image Forgeries [4.982505311411925]
本稿では,高レベル画像と低レベル画像の両方を利用する2ストリームエンコーダデコーダネットワークを提案する。
提案手法の性能評価のために,複数の標準法医学データセットの実験的検討を行った。
論文 参考訳(メタデータ) (2020-09-27T15:49:17Z) - Guided Deep Decoder: Unsupervised Image Pair Fusion [26.999346037307888]
提案ネットワークは,誘導画像のマルチスケール特徴を利用するエンコーダデコーダネットワークと,出力画像を生成するディープデコーダネットワークとから構成される。
提案するネットワークは,様々な画像融合問題において最先端の性能を実現することができることを示す。
論文 参考訳(メタデータ) (2020-07-23T03:06:06Z) - Beyond Single Stage Encoder-Decoder Networks: Deep Decoders for Semantic
Image Segmentation [56.44853893149365]
セマンティックセグメンテーションのための単一エンコーダ-デコーダ手法は、セマンティックセグメンテーションの品質とレイヤー数あたりの効率の観点からピークに達している。
そこで本研究では,より多くの情報コンテンツを取得するために,浅層ネットワークの集合を用いたデコーダに基づく新しいアーキテクチャを提案する。
アーキテクチャをさらに改善するために,ネットワークの注目度を高めるために,クラスの再バランスを目的とした重み関数を導入する。
論文 参考訳(メタデータ) (2020-07-19T18:44:34Z) - Modeling Lost Information in Lossy Image Compression [72.69327382643549]
ロスシー画像圧縮は、デジタル画像の最もよく使われる演算子の1つである。
Invertible Lossy Compression (ILC) と呼ばれる新しい非可逆的フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-22T04:04:56Z) - A Generative Approach to Titling and Clustering Wikipedia Sections [12.154365109117025]
我々は、ウィキペディア記事のセクションヘッダ生成という新たなタスクを通じて、情報組織のための様々なデコーダを用いたトランスフォーマーエンコーダを評価する。
分析の結果,符号化器の出力に対する注意機構を含むデコーダは,抽出テキストを生成することで高いスコア付け結果が得られることがわかった。
注意のないデコーダはセマンティックエンコーディングを容易にし、セクション埋め込みを生成するのに使うことができる。
論文 参考訳(メタデータ) (2020-05-22T14:49:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。