論文の概要: Generating Clear Images From Images With Distortions Caused by Adverse
Weather Using Generative Adversarial Networks
- arxiv url: http://arxiv.org/abs/2211.05234v1
- Date: Tue, 1 Nov 2022 05:02:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-13 23:30:06.008899
- Title: Generating Clear Images From Images With Distortions Caused by Adverse
Weather Using Generative Adversarial Networks
- Title(参考訳): 生成型adversarial networkを用いた悪天候による歪み画像からのクリア画像の生成
- Authors: Nuriel Shalom Mor
- Abstract要約: 本研究では,雨滴の付着による歪みを含む悪天候条件にともなう画像に対するコンピュータビジョンタスクの改善手法を提案する。
適切な生成対向ネットワークを訓練し,歪みの影響を除去するのに有効であることを示した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We presented a method for improving computer vision tasks on images affected
by adverse weather conditions, including distortions caused by adherent
raindrops. Overcoming the challenge of applying computer vision to images
affected by adverse weather conditions is essential for autonomous vehicles
utilizing RGB cameras. For this purpose, we trained an appropriate generative
adversarial network and showed that it was effective at removing the effect of
the distortions, in the context of image reconstruction and computer vision
tasks. We showed that object recognition, a vital task for autonomous driving
vehicles, is completely impaired by the distortions and occlusions caused by
adherent raindrops and that performance can be restored by our de-raining
model. The approach described in this paper could be applied to all adverse
weather conditions.
- Abstract(参考訳): 本研究では,雨滴の付着による歪みを含む悪天候による画像に対するコンピュータビジョンタスクの改善手法を提案する。
rgbカメラを利用する自動運転車には、悪天候の影響を受ける画像にコンピュータビジョンを適用するという課題を克服することが不可欠である。
そこで本研究では,画像再構成やコンピュータビジョンタスクの文脈において,歪みの影響を除去する上で有効であることを示す。
対象物認識は自動運転車にとって重要な課題であり,付着雨滴による歪みや閉塞によって完全に損なわれ,降雨モデルによって性能を回復できることを示した。
本論文で述べるアプローチは, あらゆる悪天候条件に適用可能である。
関連論文リスト
- AllWeatherNet:Unified Image enhancement for autonomous driving under adverse weather and lowlight-conditions [24.36482818960804]
本稿では,悪条件により劣化した視覚的品質と明度を改善する方法を提案する。
我々の手法であるAllWeather-Netは、新しい階層型アーキテクチャを用いて、すべての悪条件をまたいで画像を強化する。
再学習することなく、最大3.9%のmIoU改善を達成し、未確認領域に適用することで、モデルの一般化能力を示す。
論文 参考訳(メタデータ) (2024-09-03T16:47:01Z) - SUSTechGAN: Image Generation for Object Recognition in Adverse Conditions of Autonomous Driving [22.985889862182642]
本稿では,2つの注意モジュールとマルチスケールジェネレータを備えた新しいSUSTechGANを提案する。
我々は、SUSTechGANと既存のよく知られたGANを用いて、雨と夜の悪天候下で駆動画像を生成し、生成した画像をオブジェクト認識ネットワークの再トレーニングに適用する。
実験の結果,SUSTechGANで生成した運転画像は,降雨時のヨロブ5の再学習性能を有意に向上した。
論文 参考訳(メタデータ) (2024-07-18T15:32:25Z) - Continual All-in-One Adverse Weather Removal with Knowledge Replay on a
Unified Network Structure [92.8834309803903]
現実の応用では、悪天候による画像の劣化は常に複雑で、日や季節によって異なる気象条件で変化する。
我々は,ネットワーク構造を統一した上で,効果的な知識再生(KR)を実現するための新しい連続学習フレームワークを開発した。
連続学習における複数の退化を伴う画像復元作業の特徴を考察し、異なる退化に関する知識を共有・蓄積することができる。
論文 参考訳(メタデータ) (2024-03-12T03:50:57Z) - NiteDR: Nighttime Image De-Raining with Cross-View Sensor Cooperative Learning for Dynamic Driving Scenes [49.92839157944134]
夜間の運転シーンでは、不十分で不均一な照明が暗闇の中でシーンを遮蔽し、画質と可視性が低下する。
雨天時の運転シーンに適した画像デライニング・フレームワークを開発した。
雨の人工物を取り除き、風景表現を豊かにし、有用な情報を復元することを目的としている。
論文 参考訳(メタデータ) (2024-02-28T09:02:33Z) - ScatterNeRF: Seeing Through Fog with Physically-Based Inverse Neural
Rendering [83.75284107397003]
本稿では,シーンをレンダリングし,霧のない背景を分解するニューラルネットワークレンダリング手法であるScatterNeRFを紹介する。
本研究では,散乱量とシーンオブジェクトの非絡み合い表現を提案し,物理に着想を得た損失を伴ってシーン再構成を学習する。
マルチビューIn-the-Wildデータをキャプチャして,大規模な霧室内でのキャプチャを制御し,本手法の有効性を検証した。
論文 参考訳(メタデータ) (2023-05-03T13:24:06Z) - Video Waterdrop Removal via Spatio-Temporal Fusion in Driving Scenes [53.16726447796844]
運転中のフロントガラスの水滴は、深刻な視覚障害を引き起こし、自動車事故を引き起こす可能性がある。
本研究では、複数のフレームから表現を融合させて、水滴に隠された視覚情報を復元するアテンションベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2023-02-12T13:47:26Z) - See Blue Sky: Deep Image Dehaze Using Paired and Unpaired Training
Images [73.23687409870656]
本稿では,新しいエンドツーエンド画像デヘイズモデルを構築するために,サイクル生成対向ネットワークを提案する。
我々は、実世界の未ペア画像データセットとペア画像データセットのセットを含む、私たちのモデルをトレーニングするために、屋外画像データセットを採用しています。
本モデルでは, サイクル構造に基づいて, 対向損失, サイクル整合損失, フォトリアリズム損失, ペアL1損失を含む4種類の損失関数を付加した。
論文 参考訳(メタデータ) (2022-10-14T07:45:33Z) - Task-Driven Deep Image Enhancement Network for Autonomous Driving in Bad
Weather [5.416049433853457]
悪天候では、視覚的知覚はいくつかの劣化効果によって大きく影響を受ける。
画像の高品質な復元と高精度な知覚の両方に適した高レベルタスクモデルを導くための新しいタスク駆動型トレーニング戦略を導入する。
実験の結果, 提案手法は車線および2次元物体検出の性能を向上し, 主に悪天候下での深度推定が可能であることがわかった。
論文 参考訳(メタデータ) (2021-10-14T08:03:33Z) - UnfairGAN: An Enhanced Generative Adversarial Network for Raindrop
Removal from A Single Image [8.642603456626391]
UnfairGANは、エッジや雨量推定といった事前の高レベル情報を活用することで、デライニング性能を向上させることができる、改良された生成的敵ネットワークである。
提案手法は, 定量的な計測値と視覚的品質に関する降雨量について, 従来の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-10-11T18:02:43Z) - Lidar Light Scattering Augmentation (LISA): Physics-based Simulation of
Adverse Weather Conditions for 3D Object Detection [60.89616629421904]
ライダーベースの物体検出器は、自動運転車のような自律ナビゲーションシステムにおいて、3D知覚パイプラインの重要な部分である。
降雨、雪、霧などの悪天候に敏感で、信号-雑音比(SNR)と信号-背景比(SBR)が低下している。
論文 参考訳(メタデータ) (2021-07-14T21:10:47Z) - A Little Fog for a Large Turn [26.556198529742122]
霧などの悪天候条件がこれらのシステムの予測に大きく影響する自律航法の分野を考察する。
これらの気象条件は、モデルをテストするのに役立つ自然の敵のように振る舞うことができる。
我々の研究は、知覚的類似性に基づく、より自然で一般的な対人摂動の定義も提示している。
論文 参考訳(メタデータ) (2020-01-16T15:09:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。