論文の概要: A feature-supervised generative adversarial network for environmental
monitoring during hazy days
- arxiv url: http://arxiv.org/abs/2008.01942v1
- Date: Wed, 5 Aug 2020 05:27:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-02 18:04:25.023949
- Title: A feature-supervised generative adversarial network for environmental
monitoring during hazy days
- Title(参考訳): ヘイジーデイズにおける環境モニタリングのための特徴教師付きジェネレーティブ・アドバーサリーネットワーク
- Authors: Ke Wang, Siyuan Zhang, Junlan Chen, Fan Ren, Lei Xiao
- Abstract要約: 本稿では,環境モニタリングのためのGAN(Generative Adversarial Network)に基づく特徴教師付き学習ネットワークを提案する。
提案手法は,合成データセットと実世界のリモートセンシング画像の両方において,最先端の手法よりも優れた性能を実現している。
- 参考スコア(独自算出の注目度): 6.276954295407201
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The adverse haze weather condition has brought considerable difficulties in
vision-based environmental applications. While, until now, most of the existing
environmental monitoring studies are under ordinary conditions, and the studies
of complex haze weather conditions have been ignored. Thence, this paper
proposes a feature-supervised learning network based on generative adversarial
networks (GAN) for environmental monitoring during hazy days. Its main idea is
to train the model under the supervision of feature maps from the ground truth.
Four key technical contributions are made in the paper. First, pairs of hazy
and clean images are used as inputs to supervise the encoding process and
obtain high-quality feature maps. Second, the basic GAN formulation is modified
by introducing perception loss, style loss, and feature regularization loss to
generate better results. Third, multi-scale images are applied as the input to
enhance the performance of discriminator. Finally, a hazy remote sensing
dataset is created for testing our dehazing method and environmental detection.
Extensive experimental results show that the proposed method has achieved
better performance than current state-of-the-art methods on both synthetic
datasets and real-world remote sensing images.
- Abstract(参考訳): 悪天候は視覚に基づく環境応用にかなりの困難をもたらしている。
これまでの環境モニタリング研究のほとんどは通常の環境下にあり、複雑な黄土の気象条件の研究は無視されている。
そこで本稿では, 環境モニタリングのためのGAN(Generative Adversarial Network)に基づく特徴教師付き学習ネットワークを提案する。
その主なアイデアは、基本的な真実からフィーチャーマップの監督の下でモデルをトレーニングすることだ。
論文には4つの重要な技術的貢献がある。
まず, 符号化過程を監督し, 高品質な特徴写像を得るための入力として, 清潔な画像対を用いる。
第2に、知覚損失、スタイル損失、特徴正規化損失を導入して、より優れた結果を生成することで、基本的なGAN定式化が修正される。
第3に、識別器の性能を高めるために入力としてマルチスケール画像を適用する。
最後に,このデヘイジング法と環境検出をテストするために,ヘイジングリモートセンシングデータセットが作成される。
広範な実験結果から,提案手法は,合成データセットと実世界のリモートセンシング画像の両方において,現在の最先端手法よりも優れた性能を得た。
関連論文リスト
- D-YOLO a robust framework for object detection in adverse weather conditions [0.0]
ヘイズ、雪、雨などの逆の気象条件は、画像品質の低下を招き、深層学習に基づく検知ネットワークの性能低下を招きかねない。
画像復元とオブジェクト検出のタスクをよりうまく統合するために,注目機能融合モジュールを備えた二重経路ネットワークを設計した。
我々はまた,検出ネットワークにヘイズフリーな機能を提供するサブネットワークを提案し,特に,明瞭な特徴抽出サブネットワークと検出ネットワーク間の距離を最小化することにより,検出ネットワークの性能を向上させる。
論文 参考訳(メタデータ) (2024-03-14T09:57:15Z) - Exploring the Application of Large-scale Pre-trained Models on Adverse
Weather Removal [97.53040662243768]
ネットワークが異なる気象条件を適応的に処理できるようにするために,CLIP埋め込みモジュールを提案する。
このモジュールは、CLIP画像エンコーダによって抽出されたサンプル特定気象と、パラメータセットによって学習された分布特定情報を統合する。
論文 参考訳(メタデータ) (2023-06-15T10:06:13Z) - Object recognition in atmospheric turbulence scenes [2.657505380055164]
乱流環境におけるオブジェクトの型を検知・分類するための歪み特徴を学習する新しいフレームワークを提案する。
具体的には、変形可能な畳み込みを利用して空間変位を処理する。
提案手法は平均精度(mAP)が30%を超えるベンチマークよりも優れていることを示す。
論文 参考訳(メタデータ) (2022-10-25T20:21:25Z) - A Multi-purpose Real Haze Benchmark with Quantifiable Haze Levels and
Ground Truth [61.90504318229845]
本稿では,ハズフリー画像とその場でのハズ密度測定を併用した,最初の実画像ベンチマークデータセットを提案する。
このデータセットはコントロールされた環境で生成され、プロの煙発生装置がシーン全体を覆っている。
このデータセットのサブセットは、CVPR UG2 2022 チャレンジの Haze Track における Object Detection に使用されている。
論文 参考訳(メタデータ) (2022-06-13T19:14:06Z) - Unsupervised Restoration of Weather-affected Images using Deep Gaussian
Process-based CycleGAN [92.15895515035795]
本稿では,CycleGANに基づくディープネットワークの監視手法について述べる。
我々は,より効果的なトレーニングにつながるCycleGANのトレーニングに新たな損失を導入し,高品質な再構築を実現した。
提案手法は, 脱落, 脱落, 脱落といった様々な修復作業に効果的に適用できることを実証する。
論文 参考訳(メタデータ) (2022-04-23T01:30:47Z) - Vision in adverse weather: Augmentation using CycleGANs with various
object detectors for robust perception in autonomous racing [70.16043883381677]
自律レースでは、天気は突然変化し、認識が著しく低下し、非効率な操作が引き起こされる。
悪天候の検知を改善するために、ディープラーニングベースのモデルは通常、そのような状況下でキャプチャされた広範なデータセットを必要とする。
本稿では,5つの最先端検出器のうち4つの性能向上を図るために,自動レース(CycleGANを用いた)における合成悪条件データセットを用いた手法を提案する。
論文 参考訳(メタデータ) (2022-01-10T10:02:40Z) - Underwater Object Classification and Detection: first results and open
challenges [1.1549572298362782]
本研究は,水中環境における物体検出の問題点を概観する。
我々は、従来の最先端(SOTA)アルゴリズムの欠点を分析し、定量化する。
論文 参考訳(メタデータ) (2022-01-04T04:54:08Z) - Cycle and Semantic Consistent Adversarial Domain Adaptation for Reducing
Simulation-to-Real Domain Shift in LiDAR Bird's Eye View [110.83289076967895]
ドメイン適応プロセス中に関心のある小さなオブジェクトの情報を保存するために,事前の意味分類を用いたサイクガンに基づくbevドメイン適応法を提案する。
生成したBEVの品質は,KITTI 3D Object Detection Benchmarkの最先端3Dオブジェクト検出フレームワークを用いて評価されている。
論文 参考訳(メタデータ) (2021-04-22T12:47:37Z) - FD-GAN: Generative Adversarial Networks with Fusion-discriminator for
Single Image Dehazing [48.65974971543703]
画像デハージングのためのFusion-Discriminator (FD-GAN) を用いた完全エンドツーエンドのジェネレータネットワークを提案する。
我々のモデルは、より自然でリアルなデハズド画像を生成することができ、色歪みは少なく、アーティファクトも少ない。
実験により, 提案手法は, 公開合成データセットと実世界の画像の両方において, 最先端の性能に達することが示された。
論文 参考訳(メタデータ) (2020-01-20T04:36:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。