論文の概要: DADFNet: Dual Attention and Dual Frequency-Guided Dehazing Network for
Video-Empowered Intelligent Transportation
- arxiv url: http://arxiv.org/abs/2304.09588v1
- Date: Wed, 19 Apr 2023 11:55:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-20 14:41:39.678406
- Title: DADFNet: Dual Attention and Dual Frequency-Guided Dehazing Network for
Video-Empowered Intelligent Transportation
- Title(参考訳): DADFNet:ビデオエンパワー・インテリジェントトランスポートのためのデュアルアテンションとデュアル周波数誘導型デハージングネットワーク
- Authors: Yu Guo, Ryan Wen Liu, Jiangtian Nie, Lingjuan Lyu, Zehui Xiong, Jiawen
Kang, Han Yu, Dusit Niyato
- Abstract要約: 逆の気象条件は、ビデオベースの交通監視に深刻な課題をもたらす。
本稿では,リアルタイム視認性向上のための2つの注意と2つの周波数誘導型脱ハージングネットワーク(DADFNet)を提案する。
- 参考スコア(独自算出の注目度): 79.18450119567315
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Visual surveillance technology is an indispensable functional component of
advanced traffic management systems. It has been applied to perform traffic
supervision tasks, such as object detection, tracking and recognition. However,
adverse weather conditions, e.g., fog, haze and mist, pose severe challenges
for video-based transportation surveillance. To eliminate the influences of
adverse weather conditions, we propose a dual attention and dual
frequency-guided dehazing network (termed DADFNet) for real-time visibility
enhancement. It consists of a dual attention module (DAM) and a high-low
frequency-guided sub-net (HLFN) to jointly consider the attention and frequency
mapping to guide haze-free scene reconstruction. Extensive experiments on both
synthetic and real-world images demonstrate the superiority of DADFNet over
state-of-the-art methods in terms of visibility enhancement and improvement in
detection accuracy. Furthermore, DADFNet only takes $6.3$ ms to process a 1,920
* 1,080 image on the 2080 Ti GPU, making it highly efficient for deployment in
intelligent transportation systems.
- Abstract(参考訳): 視覚監視技術は、高度な交通管理システムにおいて必須の機能である。
オブジェクト検出、追跡、認識などのトラフィック監視タスクを実行するために適用されている。
しかし、霧、霧、霧などの悪天候は、ビデオベースの交通監視に深刻な課題をもたらす。
悪天候の影響をなくすため,リアルタイム視認性向上のための2つの注意と2つの周波数誘導デハジングネットワーク(dadfnet)を提案する。
DAM(Double attention module)とHLFN(High-low frequency-guided sub-net)から構成されており、注意と周波数マッピングを共同で考慮し、ヘイズフリーシーン再構築を誘導する。
合成画像と実世界の画像の広汎な実験により、DADFNetは最先端の手法よりも可視性の向上と検出精度の向上の観点から優れていることが示された。
さらに、DADFNetは、2080 Ti GPU上で1,920 * 1,080の画像を処理するためにわずか6.3$msしか必要とせず、インテリジェントな輸送システムへの展開に非常に効率的である。
関連論文リスト
- Dual-Path Coupled Image Deraining Network via Spatial-Frequency
Interaction [7.682978264249712]
既存の画像デアライニング手法は、臨界周波数情報を無視する傾向がある。
我々は空間領域と周波数領域の情報を統合したDPCNet(Dual-Path Coupled Deraining Network)を開発した。
提案手法は,既存の最先端デラリニング法よりも,下流視力に優れたロバスト性を有する視覚的満足度を実現する。
論文 参考訳(メタデータ) (2024-02-07T13:54:15Z) - Text-Driven Traffic Anomaly Detection with Temporal High-Frequency
Modeling in Driving Videos [24.210291426064305]
本稿では,ビデオクリップをテキストプロンプトと整合させる新しい単一ステージ手法であるTHFを紹介し,交通異常検出の新しい視点を提供する。
従来の手法とは異なり、我々の手法の教師付き信号は1ホットベクトルではなく言語から派生しており、より包括的な表現を提供する。
提案したTTHFは,DoTAデータセット上で,+5.4%のAUCで,最先端の競合よりも優れたパフォーマンスを実現している。
論文 参考訳(メタデータ) (2024-01-07T15:47:19Z) - Double Domain Guided Real-Time Low-Light Image Enhancement for
Ultra-High-Definition Transportation Surveillance [26.223557583420725]
本稿では,超高精細(UHD)交通監視のためのリアルタイム低照度画像強調ネットワーク(DDNet)を提案する。
特に、この強化処理は、提案した粗い強化モジュールとLoGに基づく勾配強化モジュールを介して、2つのサブタスク(すなわち、色強調と勾配増強)に分けられる。
我々のDDNetは最先端の手法と比較して優れた向上品質と効率を提供する。
論文 参考訳(メタデータ) (2023-09-15T13:16:24Z) - StreamYOLO: Real-time Object Detection for Streaming Perception [84.2559631820007]
将来を予測する能力を備えたモデルを提供し、ストリーミング知覚の結果を大幅に改善する。
本稿では,複数の速度を駆動するシーンについて考察し,VasAP(Velocity-Awared streaming AP)を提案する。
本手法は,Argoverse-HDデータセットの最先端性能を実現し,SAPとVsAPをそれぞれ4.7%,VsAPを8.2%改善する。
論文 参考訳(メタデータ) (2022-07-21T12:03:02Z) - Scalable and Real-time Multi-Camera Vehicle Detection,
Re-Identification, and Tracking [58.95210121654722]
理想化されたビデオストリームやキュレートされたビデオストリームの代わりに,リアルタイムで低解像度のCCTVを処理する,リアルタイムな都市規模のマルチカメラ車両追跡システムを提案する。
私たちの手法は、公共のリーダーボードで上位5人のパフォーマーにランク付けされています。
論文 参考訳(メタデータ) (2022-04-15T12:47:01Z) - Task-Driven Deep Image Enhancement Network for Autonomous Driving in Bad
Weather [5.416049433853457]
悪天候では、視覚的知覚はいくつかの劣化効果によって大きく影響を受ける。
画像の高品質な復元と高精度な知覚の両方に適した高レベルタスクモデルを導くための新しいタスク駆動型トレーニング戦略を導入する。
実験の結果, 提案手法は車線および2次元物体検出の性能を向上し, 主に悪天候下での深度推定が可能であることがわかった。
論文 参考訳(メタデータ) (2021-10-14T08:03:33Z) - Complex-valued Convolutional Neural Networks for Enhanced Radar Signal
Denoising and Interference Mitigation [73.0103413636673]
本稿では,レーダセンサ間の相互干渉問題に対処するために,複合価値畳み込みニューラルネットワーク(CVCNN)を提案する。
CVCNNはデータ効率を高め、ネットワークトレーニングを高速化し、干渉除去時の位相情報の保存を大幅に改善する。
論文 参考訳(メタデータ) (2021-04-29T10:06:29Z) - Enhanced Spatio-Temporal Interaction Learning for Video Deraining: A
Faster and Better Framework [93.37833982180538]
不要な雨がビデオの可視性を阻害し、ほとんどの屋外ビジョンシステムの堅牢性を低下させるため、ビデオ排水はコンピュータビジョンの重要なタスクです。
拡張時空間相互作用ネットワーク(ESTINet)と呼ばれる新しいエンドツーエンドのデラミニングフレームワークを提案する。
ESTINetは、現在の最先端ビデオの画質とスピードを大幅に向上させる。
論文 参考訳(メタデータ) (2021-03-23T05:19:35Z) - DR-TANet: Dynamic Receptive Temporal Attention Network for Street Scene
Change Detection [35.29786193920396]
本稿では,時間的注意の提示と時間的注意の依存性スコープサイズが変化検出の性能に及ぼす影響について検討する。
GSV', TSUNAMI', VL-CMU-CD'のストリートシーンデータセットでは, ベルや笛を使わずに新たな最先端のスコアが確立され, 優れた性能が得られる。
論文 参考訳(メタデータ) (2021-03-01T10:01:35Z) - DS-Net: Dynamic Spatiotemporal Network for Video Salient Object
Detection [78.04869214450963]
時間情報と空間情報のより効果的な融合のための新しい動的時空間ネットワーク(DSNet)を提案する。
提案手法は最先端アルゴリズムよりも優れた性能が得られることを示す。
論文 参考訳(メタデータ) (2020-12-09T06:42:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。