論文の概要: Task-Driven Deep Image Enhancement Network for Autonomous Driving in Bad
Weather
- arxiv url: http://arxiv.org/abs/2110.07206v1
- Date: Thu, 14 Oct 2021 08:03:33 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-15 14:36:49.569320
- Title: Task-Driven Deep Image Enhancement Network for Autonomous Driving in Bad
Weather
- Title(参考訳): 悪天候時の自律運転のためのタスク駆動型深部画像強調ネットワーク
- Authors: Younkwan Lee, Jihyo Jeon, Yeongmin Ko, Byunggwan Jeon, Moongu Jeon
- Abstract要約: 悪天候では、視覚的知覚はいくつかの劣化効果によって大きく影響を受ける。
画像の高品質な復元と高精度な知覚の両方に適した高レベルタスクモデルを導くための新しいタスク駆動型トレーニング戦略を導入する。
実験の結果, 提案手法は車線および2次元物体検出の性能を向上し, 主に悪天候下での深度推定が可能であることがわかった。
- 参考スコア(独自算出の注目度): 5.416049433853457
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Visual perception in autonomous driving is a crucial part of a vehicle to
navigate safely and sustainably in different traffic conditions. However, in
bad weather such as heavy rain and haze, the performance of visual perception
is greatly affected by several degrading effects. Recently, deep learning-based
perception methods have addressed multiple degrading effects to reflect
real-world bad weather cases but have shown limited success due to 1) high
computational costs for deployment on mobile devices and 2) poor relevance
between image enhancement and visual perception in terms of the model ability.
To solve these issues, we propose a task-driven image enhancement network
connected to the high-level vision task, which takes in an image corrupted by
bad weather as input. Specifically, we introduce a novel low memory network to
reduce most of the layer connections of dense blocks for less memory and
computational cost while maintaining high performance. We also introduce a new
task-driven training strategy to robustly guide the high-level task model
suitable for both high-quality restoration of images and highly accurate
perception. Experiment results demonstrate that the proposed method improves
the performance among lane and 2D object detection, and depth estimation
largely under adverse weather in terms of both low memory and accuracy.
- Abstract(参考訳): 自律運転における視覚的認識は、異なる交通条件下で安全かつ持続的に走行する車両にとって重要な部分である。
しかし、大雨や黄土などの悪天候では、視覚知覚の性能はいくつかの劣化の影響を強く受けている。
近年、深層学習に基づく知覚法は、現実の悪天候を反映する複数の劣化効果に対処している。
1)モバイルデバイスへの展開における高い計算コスト
2)画像エンハンスメントと視覚知覚の関連性は,モデル能力の点で低い。
これらの問題を解決するために,高レベル視覚タスクに接続したタスク駆動型画像強調ネットワークを提案し,悪天候による画像の劣化を入力として取り込む。
具体的には,ハイパフォーマンスを維持しつつ,メモリと計算コストを削減し,高密度ブロックの層接続をほとんど削減する新しい低メモリネットワークを提案する。
また,高品質な画像復元と高精度な知覚の両方に適した高レベルタスクモデルをロバストに指導するタスク駆動トレーニング戦略を提案する。
実験結果から,提案手法は車線および2次元物体検出の性能を向上し,低メモリと精度の両面において,悪天候下での深度推定を行うことがわかった。
関連論文リスト
- Real-Time Multi-Scene Visibility Enhancement for Promoting Navigational Safety of Vessels Under Complex Weather Conditions [48.529493393948435]
この可視光カメラは、インテリジェントな水上輸送システムにおいて、海洋表面の容器に不可欠なイメージングセンサーとして登場した。
視覚画像の画質は、複雑な気象条件下での様々な劣化に必然的に悩まされる。
本研究では,異なる気象条件下で撮影された劣化画像を復元する汎用多場面可視性向上手法を開発した。
論文 参考訳(メタデータ) (2024-09-02T23:46:27Z) - How to deal with glare for improved perception of Autonomous Vehicles [0.0]
視覚センサーは多用途であり、色、テクスチャ、形状、深さなど幅広い視覚的手がかりを捉えることができる。
視覚に基づく環境認識システムは、明るい光源の存在下での光沢によって容易に影響を受ける。
論文 参考訳(メタデータ) (2024-04-17T02:05:05Z) - NiteDR: Nighttime Image De-Raining with Cross-View Sensor Cooperative Learning for Dynamic Driving Scenes [49.92839157944134]
夜間の運転シーンでは、不十分で不均一な照明が暗闇の中でシーンを遮蔽し、画質と可視性が低下する。
雨天時の運転シーンに適した画像デライニング・フレームワークを開発した。
雨の人工物を取り除き、風景表現を豊かにし、有用な情報を復元することを目的としている。
論文 参考訳(メタデータ) (2024-02-28T09:02:33Z) - Dual Adversarial Resilience for Collaborating Robust Underwater Image
Enhancement and Perception [54.672052775549]
本研究では,水中画像の強調と検出を行うために,CARNetと呼ばれる協調的対向レジリエンスネットワークを導入する。
本稿では,ネットワークが様々な種類の攻撃を識別・除去できるように,視覚駆動型と知覚駆動型の両方による同時攻撃訓練戦略を提案する。
実験により,提案手法は画像の高画質化を図り,最先端の手法よりも平均6.71%高い検出精度が得られた。
論文 参考訳(メタデータ) (2023-09-03T06:52:05Z) - ScatterNeRF: Seeing Through Fog with Physically-Based Inverse Neural
Rendering [83.75284107397003]
本稿では,シーンをレンダリングし,霧のない背景を分解するニューラルネットワークレンダリング手法であるScatterNeRFを紹介する。
本研究では,散乱量とシーンオブジェクトの非絡み合い表現を提案し,物理に着想を得た損失を伴ってシーン再構成を学習する。
マルチビューIn-the-Wildデータをキャプチャして,大規模な霧室内でのキャプチャを制御し,本手法の有効性を検証した。
論文 参考訳(メタデータ) (2023-05-03T13:24:06Z) - DADFNet: Dual Attention and Dual Frequency-Guided Dehazing Network for
Video-Empowered Intelligent Transportation [79.18450119567315]
逆の気象条件は、ビデオベースの交通監視に深刻な課題をもたらす。
本稿では,リアルタイム視認性向上のための2つの注意と2つの周波数誘導型脱ハージングネットワーク(DADFNet)を提案する。
論文 参考訳(メタデータ) (2023-04-19T11:55:30Z) - Generating Clear Images From Images With Distortions Caused by Adverse
Weather Using Generative Adversarial Networks [0.0]
本研究では,雨滴の付着による歪みを含む悪天候条件にともなう画像に対するコンピュータビジョンタスクの改善手法を提案する。
適切な生成対向ネットワークを訓練し,歪みの影響を除去するのに有効であることを示した。
論文 参考訳(メタデータ) (2022-11-01T05:02:44Z) - RestoreX-AI: A Contrastive Approach towards Guiding Image Restoration
via Explainable AI Systems [8.430502131775722]
気象汚染は物体の検知可能性を妨げ、ナビゲーションと信頼性に深刻な脅威をもたらす可能性がある。
本稿では,修復モデルによる画像の評価とポストトレーニングによる画像の評価により,この問題の緩和に向けた対照的なアプローチを提案する。
気象条件下での入力画像と復元画像の間に平均178%のmAP増加が達成された。
論文 参考訳(メタデータ) (2022-04-03T12:45:00Z) - An End-to-End Cascaded Image Deraining and Object Detection Neural
Network [13.314467453715517]
本稿では,低レベル視覚タスクと高レベル視覚タスクの組み合わせについて検討する。
本稿では,降雨の影響を低減するために,エンドツーエンドの物体検出ネットワークを提案する。
当社のネットワークは、メトリクスの大幅な改善によって最先端を超越しています。
論文 参考訳(メタデータ) (2022-02-23T02:48:34Z) - Enhanced Spatio-Temporal Interaction Learning for Video Deraining: A
Faster and Better Framework [93.37833982180538]
不要な雨がビデオの可視性を阻害し、ほとんどの屋外ビジョンシステムの堅牢性を低下させるため、ビデオ排水はコンピュータビジョンの重要なタスクです。
拡張時空間相互作用ネットワーク(ESTINet)と呼ばれる新しいエンドツーエンドのデラミニングフレームワークを提案する。
ESTINetは、現在の最先端ビデオの画質とスピードを大幅に向上させる。
論文 参考訳(メタデータ) (2021-03-23T05:19:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。