論文の概要: An Unsupervised Attentive-Adversarial Learning Framework for Single
Image Deraining
- arxiv url: http://arxiv.org/abs/2202.09635v1
- Date: Sat, 19 Feb 2022 16:14:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-23 10:29:59.457262
- Title: An Unsupervised Attentive-Adversarial Learning Framework for Single
Image Deraining
- Title(参考訳): 単体画像評価のための教師なし学習フレームワーク
- Authors: Wei Liu, Rui Jiang, Cheng Chen, Tao Lu and Zixiang Xiong
- Abstract要約: 本稿では, 教師なし学習フレームワークUALF(unsupervised attentive-adversarial learning framework)を提案する。
UALFは、合成雨と実際の雨の画像を同時に撮影しながら、降雨量と降雨量の両方を訓練する。
R2Cでは, 降雨・降雨・降雨・降雨・降雨・降雨・降雨・降雨・降雨・降雨の自己相似性を活かすために, 注意雨・降雨の特徴抽出ネットワーク(ARFE)を採用している。
- 参考スコア(独自算出の注目度): 16.59494337699748
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Single image deraining has been an important topic in low-level computer
vision tasks. The atmospheric veiling effect (which is generated by rain
accumulation, similar to fog) usually appears with the rain. Most deep
learning-based single image deraining methods mainly focus on rain streak
removal by disregarding this effect, which leads to low-quality deraining
performance. In addition, these methods are trained only on synthetic data,
hence they do not take into account real-world rainy images. To address the
above issues, we propose a novel unsupervised attentive-adversarial learning
framework (UALF) for single image deraining that trains on both synthetic and
real rainy images while simultaneously capturing both rain streaks and rain
accumulation features. UALF consists of a Rain-fog2Clean (R2C) transformation
block and a Clean2Rain-fog (C2R) transformation block. In R2C, to better
characterize the rain-fog fusion feature and to achieve high-quality deraining
performance, we employ an attention rain-fog feature extraction network (ARFE)
to exploit the self-similarity of global and local rain-fog information by
learning the spatial feature correlations. Moreover, to improve the
transformation ability of C2R, we design a rain-fog feature decoupling and
reorganization network (RFDR) by embedding a rainy image degradation model and
a mixed discriminator to preserve richer texture details. Extensive experiments
on benchmark rain-fog and rain datasets show that UALF outperforms
state-of-the-art deraining methods. We also conduct defogging performance
evaluation experiments to further demonstrate the effectiveness of UALF
- Abstract(参考訳): 低レベルのコンピュータビジョンタスクでは、シングルイメージのデアライニングが重要なトピックとなっている。
大気のヴェイリング効果(霧に似た雨の蓄積によって生じる)は通常、雨とともに現れる。
深層学習に基づく単一画像デライニング手法の多くは,この効果を無視して雨害除去に重点を置いており,低品質なデライニング性能をもたらす。
また、これらの手法は合成データのみに基づいて訓練されるため、実際の降雨画像を考慮に入れない。
以上の課題に対処するため, 降雨量と降雨量の両方を同時に把握しながら, 合成画像と実降雨画像の両方を訓練する, 単一画像デライニングのための教師なし学習フレームワーク (UALF) を提案する。
UALFはRain-fog2Clean(R2C)変換ブロックとC2R変換ブロックで構成される。
r2cでは,降雨フォグの融合特性をよりよく評価し,高品質な流水性能を達成するため,空間的特徴の相関を学習し,大域的・局所的な降雨フォグ情報の自己相似性を活用すべく,注意型降雨フォグ特徴抽出ネットワーク(arfe)を採用している。
さらに,c2rの変形能力を向上させるために,雨画像分解モデルと混合判別器を組み込んで,より詳細なテクスチャを保存し,雨季特徴分離再編成ネットワーク(rfdr)を設計する。
ベンチマークのrain-fogとrain datasetに関する広範囲な実験は、ualfが最先端のレーディング手法を上回っていることを示している。
また、UALFの有効性をさらに実証するため、実証性能評価実験も実施する。
関連論文リスト
- TRG-Net: An Interpretable and Controllable Rain Generator [61.2760968459789]
本研究は,降雨の基盤となる物理的発生機構を十分に考慮した,新しい深層学習型降雨発生器を提案する。
その意義は、発電機が予想される雨をシミュレートするために雨の本質的な要素を精巧に設計するだけでなく、複雑で多様な雨のイメージに微妙に適応することにある。
提案した雨発生器が発生した雨は, 高品質であるだけでなく, 排水作業や下流作業にも有効であることを示す。
論文 参考訳(メタデータ) (2024-03-15T03:27:39Z) - Sparse Sampling Transformer with Uncertainty-Driven Ranking for Unified
Removal of Raindrops and Rain Streaks [17.00078021737863]
実際の世界では、雨による画像劣化は、しばしば雨害と雨滴の組み合わせを示し、それによって根底にあるクリーンなイメージを回復する課題が増大する。
本稿は,グローバルな視点における劣化関係を学習し,モデル化するための,効率的かつ柔軟なメカニズムを提案することを目的とする。
論文 参考訳(メタデータ) (2023-08-27T16:33:11Z) - Dual Degradation Representation for Joint Deraining and Low-Light Enhancement in the Dark [57.85378202032541]
暗闇の中での雨は、自律運転や監視システム、夜間写真など、現実世界のアプリケーションをデプロイする上で大きな課題となる。
既存の低照度化や除染法は、低照度を明るくし、同時に雨を取り除くのに苦労する。
L$2$RIRNetと呼ばれるエンド・ツー・エンドのモデルを導入する。
論文 参考訳(メタデータ) (2023-05-06T10:17:42Z) - Semi-MoreGAN: A New Semi-supervised Generative Adversarial Network for
Mixture of Rain Removal [18.04268933542476]
降水・降水・降水・降水・降水・降水・降水・降水・降水・降水・降水・降水・降水・降水・降水・降水・降水・降水・降水・降水・降水・降水・降水・降水・降水・降水・降水・降水・降水・降水・降水・降水・降水・降水・降水・降水・降水・降水・降水・降水・降水・降水・降水・降水・降水・降水・降水・降水・降水・降水・降水・降水・降水・降水・降水)
セミモレGANは、4つの重要なモジュールで構成されている: (I) 正確な深度推定を提供する新しい注意深度予測ネットワーク、 (ii) 詳細な画像コンテキスト特徴を生成するためによく設計された詳細残差ブロックで構成されたコンテキスト特徴予測ネットワーク、 (iii) ピラミッド深度誘導非局所ネットワークにより画像コンテキストを深度情報と有効に統合し、最終雨量のない画像を生成する、 (iv) モデルに制限を加えるための包括的な半教師付き損失関数。
論文 参考訳(メタデータ) (2022-04-28T11:35:26Z) - UnfairGAN: An Enhanced Generative Adversarial Network for Raindrop
Removal from A Single Image [8.642603456626391]
UnfairGANは、エッジや雨量推定といった事前の高レベル情報を活用することで、デライニング性能を向上させることができる、改良された生成的敵ネットワークである。
提案手法は, 定量的な計測値と視覚的品質に関する降雨量について, 従来の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-10-11T18:02:43Z) - Closing the Loop: Joint Rain Generation and Removal via Disentangled
Image Translation [12.639320247831181]
我々は、雨の発生と除去は同じ硬貨の両側面であり、密結合であるべきだと主張する。
本稿では,各一方向ネットワークが2ループの連雨発生と除去を含む双方向不整合翻訳ネットワークを提案する。
人工および実世界の降雨データセットに関する実験は、最先端の雨よりも提案手法の優越性を示している。
論文 参考訳(メタデータ) (2021-03-25T08:21:43Z) - Dual Attention-in-Attention Model for Joint Rain Streak and Raindrop
Removal [103.4067418083549]
降雨量と降雨量の両方を同時に除去する2つのDAMを含むDual Attention-in-Attention Model (DAiAM)を提案する。
提案手法は,降雨量と降雨量とを同時に除去できるだけでなく,両タスクの最先端性能も達成できる。
論文 参考訳(メタデータ) (2021-03-12T03:00:33Z) - From Rain Generation to Rain Removal [67.71728610434698]
雨層を生成物としてパラメータ化した雨画像のためのベイズ生成モデルを構築した。
降雨画像の統計的分布を推定するために,変分推論の枠組みを用いる。
総合的な実験により,提案モデルが複雑な降雨分布を忠実に抽出できることが確認された。
論文 参考訳(メタデータ) (2020-08-08T18:56:51Z) - Structural Residual Learning for Single Image Rain Removal [48.87977695398587]
本研究は,本質的な降雨構造を有するネットワークの出力残余を強制することで,新たなネットワークアーキテクチャを提案する。
このような構造的残差設定は、ネットワークによって抽出された雨層が、一般的な雨害の以前の知識に微妙に従うことを保証している。
論文 参考訳(メタデータ) (2020-05-19T05:52:13Z) - Multi-Scale Progressive Fusion Network for Single Image Deraining [84.0466298828417]
空気中の雨のストリークは、位置からカメラまでの距離が異なるため、様々なぼやけた度合いや解像度で現れる。
同様の降雨パターンは、雨像やマルチスケール(またはマルチレゾリューション)バージョンで見ることができる。
本研究では,入力画像のスケールと階層的な深部特徴の観点から,雨天のマルチスケール協調表現について検討する。
論文 参考訳(メタデータ) (2020-03-24T17:22:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。