論文の概要: DADFNet: Dual Attention and Dual Frequency-Guided Dehazing Network for
Video-Empowered Intelligent Transportation
- arxiv url: http://arxiv.org/abs/2304.09588v1
- Date: Wed, 19 Apr 2023 11:55:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-20 14:41:39.678406
- Title: DADFNet: Dual Attention and Dual Frequency-Guided Dehazing Network for
Video-Empowered Intelligent Transportation
- Title(参考訳): DADFNet:ビデオエンパワー・インテリジェントトランスポートのためのデュアルアテンションとデュアル周波数誘導型デハージングネットワーク
- Authors: Yu Guo, Ryan Wen Liu, Jiangtian Nie, Lingjuan Lyu, Zehui Xiong, Jiawen
Kang, Han Yu, Dusit Niyato
- Abstract要約: 逆の気象条件は、ビデオベースの交通監視に深刻な課題をもたらす。
本稿では,リアルタイム視認性向上のための2つの注意と2つの周波数誘導型脱ハージングネットワーク(DADFNet)を提案する。
- 参考スコア(独自算出の注目度): 79.18450119567315
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Visual surveillance technology is an indispensable functional component of
advanced traffic management systems. It has been applied to perform traffic
supervision tasks, such as object detection, tracking and recognition. However,
adverse weather conditions, e.g., fog, haze and mist, pose severe challenges
for video-based transportation surveillance. To eliminate the influences of
adverse weather conditions, we propose a dual attention and dual
frequency-guided dehazing network (termed DADFNet) for real-time visibility
enhancement. It consists of a dual attention module (DAM) and a high-low
frequency-guided sub-net (HLFN) to jointly consider the attention and frequency
mapping to guide haze-free scene reconstruction. Extensive experiments on both
synthetic and real-world images demonstrate the superiority of DADFNet over
state-of-the-art methods in terms of visibility enhancement and improvement in
detection accuracy. Furthermore, DADFNet only takes $6.3$ ms to process a 1,920
* 1,080 image on the 2080 Ti GPU, making it highly efficient for deployment in
intelligent transportation systems.
- Abstract(参考訳): 視覚監視技術は、高度な交通管理システムにおいて必須の機能である。
オブジェクト検出、追跡、認識などのトラフィック監視タスクを実行するために適用されている。
しかし、霧、霧、霧などの悪天候は、ビデオベースの交通監視に深刻な課題をもたらす。
悪天候の影響をなくすため,リアルタイム視認性向上のための2つの注意と2つの周波数誘導デハジングネットワーク(dadfnet)を提案する。
DAM(Double attention module)とHLFN(High-low frequency-guided sub-net)から構成されており、注意と周波数マッピングを共同で考慮し、ヘイズフリーシーン再構築を誘導する。
合成画像と実世界の画像の広汎な実験により、DADFNetは最先端の手法よりも可視性の向上と検出精度の向上の観点から優れていることが示された。
さらに、DADFNetは、2080 Ti GPU上で1,920 * 1,080の画像を処理するためにわずか6.3$msしか必要とせず、インテリジェントな輸送システムへの展開に非常に効率的である。
関連論文リスト
- Real-Time Multi-Scene Visibility Enhancement for Promoting Navigational Safety of Vessels Under Complex Weather Conditions [48.529493393948435]
この可視光カメラは、インテリジェントな水上輸送システムにおいて、海洋表面の容器に不可欠なイメージングセンサーとして登場した。
視覚画像の画質は、複雑な気象条件下での様々な劣化に必然的に悩まされる。
本研究では,異なる気象条件下で撮影された劣化画像を復元する汎用多場面可視性向上手法を開発した。
論文 参考訳(メタデータ) (2024-09-02T23:46:27Z) - FALCON: Frequency Adjoint Link with CONtinuous Density Mask for Fast Single Image Dehazing [8.703680337470285]
この研究は、品質と速度の両面で最先端の性能を達成するシングルイメージデハージングシステムであるFALCONを紹介する。
本研究では, 連続密度マスクを用いた大気散乱モデルに基づいて, 基礎となるヘイズ分布を利用する。
複数の最先端手法とアブレーション解析を含む実験は、FALCONの脱ハージング品質と速度の両方における異常な性能を実証している。
論文 参考訳(メタデータ) (2024-07-01T05:16:26Z) - Vision Transformers for End-to-End Vision-Based Quadrotor Obstacle Avoidance [13.467819526775472]
高速な視覚に基づく四極子障害物回避のための注意に基づくエンドツーエンドアプローチの能力を実証する。
我々は、高忠実度シミュレーションにおいて、深度画像制御のための視覚変換器(ViT)モデルに対して畳み込み、U-Netおよび繰り返しアーキテクチャを訓練し、比較する。
論文 参考訳(メタデータ) (2024-05-16T18:36:43Z) - CUE-Net: Violence Detection Video Analytics with Spatial Cropping, Enhanced UniformerV2 and Modified Efficient Additive Attention [21.354382437543315]
本稿では,ビデオ監視における暴力自動検出のための新しいアーキテクチャであるCUE-Netを紹介する。
CUE-Netはローカルとグローバル両方の時間的特徴に着目し、RWF-2000およびRLVSデータセット上で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-04-27T20:09:40Z) - Dual-Path Coupled Image Deraining Network via Spatial-Frequency
Interaction [7.682978264249712]
既存の画像デアライニング手法は、臨界周波数情報を無視する傾向がある。
我々は空間領域と周波数領域の情報を統合したDPCNet(Dual-Path Coupled Deraining Network)を開発した。
提案手法は,既存の最先端デラリニング法よりも,下流視力に優れたロバスト性を有する視覚的満足度を実現する。
論文 参考訳(メタデータ) (2024-02-07T13:54:15Z) - Double Domain Guided Real-Time Low-Light Image Enhancement for
Ultra-High-Definition Transportation Surveillance [26.223557583420725]
本稿では,超高精細(UHD)交通監視のためのリアルタイム低照度画像強調ネットワーク(DDNet)を提案する。
特に、この強化処理は、提案した粗い強化モジュールとLoGに基づく勾配強化モジュールを介して、2つのサブタスク(すなわち、色強調と勾配増強)に分けられる。
我々のDDNetは最先端の手法と比較して優れた向上品質と効率を提供する。
論文 参考訳(メタデータ) (2023-09-15T13:16:24Z) - StreamYOLO: Real-time Object Detection for Streaming Perception [84.2559631820007]
将来を予測する能力を備えたモデルを提供し、ストリーミング知覚の結果を大幅に改善する。
本稿では,複数の速度を駆動するシーンについて考察し,VasAP(Velocity-Awared streaming AP)を提案する。
本手法は,Argoverse-HDデータセットの最先端性能を実現し,SAPとVsAPをそれぞれ4.7%,VsAPを8.2%改善する。
論文 参考訳(メタデータ) (2022-07-21T12:03:02Z) - Complex-valued Convolutional Neural Networks for Enhanced Radar Signal
Denoising and Interference Mitigation [73.0103413636673]
本稿では,レーダセンサ間の相互干渉問題に対処するために,複合価値畳み込みニューラルネットワーク(CVCNN)を提案する。
CVCNNはデータ効率を高め、ネットワークトレーニングを高速化し、干渉除去時の位相情報の保存を大幅に改善する。
論文 参考訳(メタデータ) (2021-04-29T10:06:29Z) - Enhanced Spatio-Temporal Interaction Learning for Video Deraining: A
Faster and Better Framework [93.37833982180538]
不要な雨がビデオの可視性を阻害し、ほとんどの屋外ビジョンシステムの堅牢性を低下させるため、ビデオ排水はコンピュータビジョンの重要なタスクです。
拡張時空間相互作用ネットワーク(ESTINet)と呼ばれる新しいエンドツーエンドのデラミニングフレームワークを提案する。
ESTINetは、現在の最先端ビデオの画質とスピードを大幅に向上させる。
論文 参考訳(メタデータ) (2021-03-23T05:19:35Z) - DS-Net: Dynamic Spatiotemporal Network for Video Salient Object
Detection [78.04869214450963]
時間情報と空間情報のより効果的な融合のための新しい動的時空間ネットワーク(DSNet)を提案する。
提案手法は最先端アルゴリズムよりも優れた性能が得られることを示す。
論文 参考訳(メタデータ) (2020-12-09T06:42:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。