論文の概要: Contrastive Learning for Compact Single Image Dehazing
- arxiv url: http://arxiv.org/abs/2104.09367v1
- Date: Mon, 19 Apr 2021 14:56:21 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-20 19:42:01.506595
- Title: Contrastive Learning for Compact Single Image Dehazing
- Title(参考訳): コンパクト単一画像デハジングのためのコントラスト学習
- Authors: Haiyan Wu, Yanyun Qu, Shaohui Lin, Jian Zhou, Ruizhi Qiao, Zhizhong
Zhang, Yuan Xie, Lizhuang Ma
- Abstract要約: コントラスト学習に基づいて構築された新しいコントラスト正規化(CR)を提案し、ヘイズ画像とクリア画像の情報の両方をネガティブかつポジティブなサンプルとして活用する。
CRは、復元された画像が透明な画像に近づき、表現空間のぼやけた画像から遠くへ押し出されることを保証する。
性能とメモリストレージのトレードオフを考慮すると、オートエンコーダのようなフレームワークに基づくコンパクトなデハージングネットワークを開発する。
- 参考スコア(独自算出の注目度): 41.83007400559068
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Single image dehazing is a challenging ill-posed problem due to the severe
information degeneration. However, existing deep learning based dehazing
methods only adopt clear images as positive samples to guide the training of
dehazing network while negative information is unexploited. Moreover, most of
them focus on strengthening the dehazing network with an increase of depth and
width, leading to a significant requirement of computation and memory. In this
paper, we propose a novel contrastive regularization (CR) built upon
contrastive learning to exploit both the information of hazy images and clear
images as negative and positive samples, respectively. CR ensures that the
restored image is pulled to closer to the clear image and pushed to far away
from the hazy image in the representation space. Furthermore, considering
trade-off between performance and memory storage, we develop a compact dehazing
network based on autoencoder-like (AE) framework. It involves an adaptive mixup
operation and a dynamic feature enhancement module, which can benefit from
preserving information flow adaptively and expanding the receptive field to
improve the network's transformation capability, respectively. We term our
dehazing network with autoencoder and contrastive regularization as AECR-Net.
The extensive experiments on synthetic and real-world datasets demonstrate that
our AECR-Net surpass the state-of-the-art approaches. The code is released in
https://github.com/GlassyWu/AECR-Net.
- Abstract(参考訳): 単一画像のデハジングは、深刻な情報変性のために問題となる。
しかし,既存の深層学習に基づくデハジング手法では,デハジングネットワークのトレーニングをガイドするために,明確なイメージを正のサンプルとしてのみ採用している。
さらに、大半は、深さと幅の増加によってデヘイジングネットワークの強化に重点を置いており、計算とメモリの大幅な要求に繋がる。
本稿では, 対照的学習に基づく新しいコントラスト正規化 (CR) を提案し, それぞれ, 曖昧な画像の情報と明瞭な画像の情報を負と正のサンプルとして活用する。
CRは、復元された画像がクリアな画像に近づき、表現空間内のぼやけた画像から遠くに押されるようにする。
さらに,性能とメモリストレージのトレードオフを考慮し,オートエンコーダ(AE)フレームワークに基づく小型デハージングネットワークを開発する。
適応的なミックスアップ操作と動的機能拡張モジュールにより、情報フローを適応的に保存し、受容場を拡張して、ネットワークの変換能力を向上させることができる。
我々は、オートエンコーダとコントラスト正規化をAECR-Netと呼ぶ。
合成および実世界のデータセットに関する広範な実験は、我々のAECR-Netが最先端のアプローチを超えたことを示している。
コードはhttps://github.com/GlassyWu/AECR-Netで公開されている。
関連論文リスト
- DRACO-DehazeNet: An Efficient Image Dehazing Network Combining Detail Recovery and a Novel Contrastive Learning Paradigm [3.649619954898362]
Detail RecoveryとContrastive DehazeNetは、特定のデハズされたシーンコンテキストへの拡張を調整した、詳細なイメージリカバリネットワークである。
大きな革新は、新しい四重項損失に基づくコントラストデハージングパラダイムによって達成された、限られたデータで効果的にトレーニングできることである。
論文 参考訳(メタデータ) (2024-10-18T16:48:31Z) - WTCL-Dehaze: Rethinking Real-world Image Dehazing via Wavelet Transform and Contrastive Learning [17.129068060454255]
自律運転や監視といったアプリケーションには、単一イメージのデハジングが不可欠だ。
コントラスト損失と離散ウェーブレット変換を統合した半教師付きデハージングネットワークを提案する。
提案アルゴリズムは,最先端の単一画像復調法と比較して,優れた性能とロバスト性を実現している。
論文 参考訳(メタデータ) (2024-10-07T05:36:11Z) - AoSRNet: All-in-One Scene Recovery Networks via Multi-knowledge
Integration [17.070755601209136]
マルチ知識統合によるオールインワンシーン復元ネットワーク(AoSRNet)を提案する。
ガンマ補正(GC)と最適化線形ストレッチ(OLS)を組み合わせてディテール拡張モジュール(DEM)とカラー復元モジュール(CRM)を作成する。
総合的な実験結果から,AoSRNetの有効性と安定性が他の最先端手法と比較された。
論文 参考訳(メタデータ) (2024-02-06T06:12:03Z) - HAT: Hybrid Attention Transformer for Image Restoration [61.74223315807691]
トランスフォーマーに基づく手法は、画像の超解像や復調といった画像復元タスクにおいて顕著な性能を示している。
本稿では,新たなHAT(Hybrid Attention Transformer)を提案する。
我々のHATは,定量的かつ定性的に,最先端の性能を達成する。
論文 参考訳(メタデータ) (2023-09-11T05:17:55Z) - Enhancing Low-light Light Field Images with A Deep Compensation Unfolding Network [52.77569396659629]
本稿では,低光環境下で撮像した光場(LF)画像の復元に,DCUNet(Deep compensation network openfolding)を提案する。
このフレームワークは、中間拡張結果を使用して照明マップを推定し、展開プロセスで新しい拡張結果を生成する。
本稿では,LF画像の特徴を適切に活用するために,擬似明示的特徴相互作用モジュールを提案する。
論文 参考訳(メタデータ) (2023-08-10T07:53:06Z) - RBSR: Efficient and Flexible Recurrent Network for Burst
Super-Resolution [57.98314517861539]
バースト超解像(BurstSR)は、高解像度(HR)画像を低解像度(LR)画像と雑音画像から再構成することを目的としている。
本稿では,効率よくフレキシブルなリカレントネットワークでフレーム単位のキューを融合させることを提案する。
論文 参考訳(メタデータ) (2023-06-30T12:14:13Z) - Rethinking Performance Gains in Image Dehazing Networks [25.371802581339576]
我々は、コンパクトなデハージングネットワークを得るために、人気のあるU-Netに最小限の変更を加えている。
具体的には、U-Netの畳み込みブロックをゲーティング機構で残余ブロックに置き換える。
オーバーヘッドが大幅に削減されているため、gUNetは複数のイメージデハージングデータセットの最先端メソッドよりも優れている。
論文 参考訳(メタデータ) (2022-09-23T07:14:48Z) - Cross-receptive Focused Inference Network for Lightweight Image
Super-Resolution [64.25751738088015]
トランスフォーマーに基づく手法は、単一画像超解像(SISR)タスクにおいて顕著な性能を示した。
動的に特徴を抽出するために文脈情報を組み込む必要がある変換器は無視される。
我々は,CNNとTransformerを混合したCTブロックのカスケードで構成される,軽量なクロスレセプティブ・フォーカスド・推論・ネットワーク(CFIN)を提案する。
論文 参考訳(メタデータ) (2022-07-06T16:32:29Z) - Single Image Dehazing with An Independent Detail-Recovery Network [117.86146907611054]
個別のDetail Recovery Network (DRN) を用いた単一画像デハージング手法を提案する。
DRNは、それぞれのローカルブランチとグローバルブランチを通じて、デハズドイメージの詳細を復元することを目的としている。
本手法は, 定量的, 定性的に, 最先端の脱ハージング法より優れる。
論文 参考訳(メタデータ) (2021-09-22T02:49:43Z) - Image deblurring based on lightweight multi-information fusion network [6.848061582669787]
画像デブロアリングのための軽量多情報融合ネットワーク(LMFN)を提案する。
符号化段階では、画像特徴は、マルチスケール情報抽出および融合のための様々な小規模空間に還元される。
その後、デコード段階で蒸留ネットワークが使用され、ネットワークは残留学習から最も利益を得ます。
私たちのネットワークは、少ないパラメータで最新の画像破壊結果を達成し、モデルの複雑さで既存の方法を上回ることができます。
論文 参考訳(メタデータ) (2021-01-14T00:37:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。