論文の概要: End-to-end Inception-Unet based Generative Adversarial Networks for Snow and Rain Removals
- arxiv url: http://arxiv.org/abs/2411.04821v1
- Date: Thu, 07 Nov 2024 15:58:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-08 19:37:36.113062
- Title: End-to-end Inception-Unet based Generative Adversarial Networks for Snow and Rain Removals
- Title(参考訳): 降雪・降雨防止のためのエンド・ツー・エンドインセプション-Unetに基づく生成逆ネットワーク
- Authors: Ibrahim Kajo, Mohamed Kas, Yassine Ruichek,
- Abstract要約: 深層学習は、雪や雨のような大気の粒子を単一の画像から取り除くことにアプローチし、古典的なものよりもその使用を好んでいる。
しかし、深層学習に基づくアプローチは、サイズ、タイプ、透明性といった粒子の外観の特徴に関連する課題に依然として悩まされている。
本稿では,各粒子を個別に除去するGAN(Generative Adversarial Networks)とGAN(Generative Adversarial Networks)からなるグローバルフレームワークを提案する。
- 参考スコア(独自算出の注目度): 15.844888626446078
- License:
- Abstract: The superior performance introduced by deep learning approaches in removing atmospheric particles such as snow and rain from a single image; favors their usage over classical ones. However, deep learning-based approaches still suffer from challenges related to the particle appearance characteristics such as size, type, and transparency. Furthermore, due to the unique characteristics of rain and snow particles, single network based deep learning approaches struggle in handling both degradation scenarios simultaneously. In this paper, a global framework that consists of two Generative Adversarial Networks (GANs) is proposed where each handles the removal of each particle individually. The architectures of both desnowing and deraining GANs introduce the integration of a feature extraction phase with the classical U-net generator network which in turn enhances the removal performance in the presence of severe variations in size and appearance. Furthermore, a realistic dataset that contains pairs of snowy images next to their groundtruth images estimated using a low-rank approximation approach; is presented. The experiments show that the proposed desnowing and deraining approaches achieve significant improvements in comparison to the state-of-the-art approaches when tested on both synthetic and realistic datasets.
- Abstract(参考訳): 深層学習によって導入された優れた性能は、雪や雨のような大気粒子を1つの画像から取り除くことであり、古典的なものよりもその使用を好んでいる。
しかし、深層学習に基づくアプローチは、サイズ、タイプ、透明性といった粒子の外観の特徴に関連する課題に依然として悩まされている。
さらに, 降雪粒子の特性から, 単一ネットワークに基づく深層学習手法は, 両方の劣化シナリオを同時に扱うのに苦労する。
本稿では,各粒子を個別に除去するGAN(Generative Adversarial Networks)とGAN(Generative Adversarial Networks)からなるグローバルフレームワークを提案する。
GANのデバッギングとデバッギングの両方のアーキテクチャでは、特徴抽出フェーズを従来のU-netジェネレータネットワークに統合することで、サイズや外観が著しく異なる場合に除去性能が向上する。
さらに、低ランク近似法を用いて推定した地平線画像の横に雪像のペアを含む現実的なデータセットを提示する。
実験の結果,提案手法は, 合成データセットと現実データセットの両方でテストした場合の最先端手法と比較して, 大幅な改善が得られた。
関連論文リスト
- Semi-Supervised Video Desnowing Network via Temporal Decoupling Experts and Distribution-Driven Contrastive Regularization [21.22179604024444]
積雪除去のためのラベルのない実データを含む半教師付き精神におけるビデオ記述のための新しいパラダイムを提案する。
具体的には,85本の雪上ビデオを用いた実世界のデータセットを構築し,新しい配電型コントラスト正規化を備えたセミ教師付きビデオ認識ネットワーク(SemiVDN)を提案する。
厳密な対照的な正規化は、合成データと実データの間の分配ギャップを緩和し、したがって所望の積雪不変背景の詳細を維持する。
論文 参考訳(メタデータ) (2024-10-10T13:31:42Z) - RainyScape: Unsupervised Rainy Scene Reconstruction using Decoupled Neural Rendering [50.14860376758962]
多視点降雨画像の集合からクリーンなシーンを再構築するための教師なしフレームワークであるRainyScapeを提案する。
ニューラルネットワークのスペクトルバイアス特性に基づいて、まずニューラルネットワークのレンダリングパイプラインを最適化し、低周波シーン表現を得る。
我々は2つのモジュールを協調的に最適化し,適応的指向性勾配に基づく再構成損失によって駆動する。
論文 参考訳(メタデータ) (2024-04-17T14:07:22Z) - Deceptive-NeRF/3DGS: Diffusion-Generated Pseudo-Observations for High-Quality Sparse-View Reconstruction [60.52716381465063]
我々は,限られた入力画像のみを用いて,スパースビュー再構成を改善するために,Deceptive-NeRF/3DGSを導入した。
具体的には,少数視点再構成によるノイズ画像から高品質な擬似観測へ変換する,偽拡散モデルを提案する。
本システムでは,拡散生成擬似観測をトレーニング画像集合に徐々に組み込んで,スパース入力観測を5倍から10倍に高めている。
論文 参考訳(メタデータ) (2023-05-24T14:00:32Z) - Rethinking Real-world Image Deraining via An Unpaired Degradation-Conditioned Diffusion Model [51.49854435403139]
本研究では,拡散モデルに基づく最初の実世界の画像デライニングパラダイムであるRainDiffを提案する。
安定的で非敵対的なサイクル一貫性のあるアーキテクチャを導入し、トレーニングをエンドツーエンドで行えます。
また,複数の降雨の先行学習によって条件付けられた拡散生成過程を通じて,所望の出力を洗練する劣化条件拡散モデルを提案する。
論文 参考訳(メタデータ) (2023-01-23T13:34:01Z) - Semi-MoreGAN: A New Semi-supervised Generative Adversarial Network for
Mixture of Rain Removal [18.04268933542476]
降水・降水・降水・降水・降水・降水・降水・降水・降水・降水・降水・降水・降水・降水・降水・降水・降水・降水・降水・降水・降水・降水・降水・降水・降水・降水・降水・降水・降水・降水・降水・降水・降水・降水・降水・降水・降水・降水・降水・降水・降水・降水・降水・降水・降水・降水・降水・降水・降水・降水・降水・降水・降水・降水・降水)
セミモレGANは、4つの重要なモジュールで構成されている: (I) 正確な深度推定を提供する新しい注意深度予測ネットワーク、 (ii) 詳細な画像コンテキスト特徴を生成するためによく設計された詳細残差ブロックで構成されたコンテキスト特徴予測ネットワーク、 (iii) ピラミッド深度誘導非局所ネットワークにより画像コンテキストを深度情報と有効に統合し、最終雨量のない画像を生成する、 (iv) モデルに制限を加えるための包括的な半教師付き損失関数。
論文 参考訳(メタデータ) (2022-04-28T11:35:26Z) - Unpaired Quad-Path Cycle Consistent Adversarial Networks for Single
Image Defogging [16.59494337699748]
本研究では, クアッドパスサイクル一貫した対向ネットワーク (QPC-Net) という, 新たな対向ネットワークを構築した。
QPC-NetはFog2FogfreeブロックとFogfree2Fogブロックで構成される。
QPC-Netは、定量的精度と主観的視覚的品質の観点から、最先端のデファジグ手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-02-19T09:00:37Z) - Online-updated High-order Collaborative Networks for Single Image
Deraining [51.22694467126883]
単一画像のデライン化は、ビデオ監視や自動運転システムなど、下流の人工知能アプリケーションにとって重要なタスクである。
マルチスケールのコンパクトな制約と双方向のスケール・コンテント類似性マイニングモジュールを備えた高階協調ネットワークを提案する。
提案手法は,5つの公開合成と1つの実世界のデータセットに対して,11の最先端手法に対して好意的に機能する。
論文 参考訳(メタデータ) (2022-02-14T09:09:08Z) - A Model-driven Deep Neural Network for Single Image Rain Removal [52.787356046951494]
完全解釈可能なネットワーク構造を持つモデル駆動型ディープニューラルネットワークを提案する。
雨を表現するための畳み込み辞書学習機構に基づいて,新しい単一画像デレーニングモデルを提案する。
すべてのレインカーネルとオペレータは自動的に抽出され、レイン層とクリーンなバックグラウンド層の両方の特徴を忠実に特徴付けることができる。
論文 参考訳(メタデータ) (2020-05-04T09:13:25Z) - Deep CG2Real: Synthetic-to-Real Translation via Image Disentanglement [78.58603635621591]
画像空間における未ペアの合成-現実翻訳ネットワークの訓練は、厳しい制約下にある。
画像の非交叉シェーディング層とアルベド層に作用する半教師付きアプローチを提案する。
私たちの2段階のパイプラインはまず、物理ベースのレンダリングをターゲットとして、教師付き方法で正確なシェーディングを予測することを学習します。
論文 参考訳(メタデータ) (2020-03-27T21:45:41Z) - Semi-DerainGAN: A New Semi-supervised Single Image Deraining Network [45.78251508028359]
本稿では,セミデリンGANと呼ばれる,半教師付きGANベースのデラミニングネットワークを提案する。
2つの教師なしおよび教師なしのプロセスを使用して、一様ネットワークで合成画像と実際の雨画像の両方を使用することができる。
そこで我々は,実対と偽対を識別する識別器を設計した。
論文 参考訳(メタデータ) (2020-01-23T07:01:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。