論文の概要: DREB-Net: Dual-stream Restoration Embedding Blur-feature Fusion Network for High-mobility UAV Object Detection
- arxiv url: http://arxiv.org/abs/2410.17822v1
- Date: Wed, 23 Oct 2024 12:32:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-24 13:55:45.296014
- Title: DREB-Net: Dual-stream Restoration Embedding Blur-feature Fusion Network for High-mobility UAV Object Detection
- Title(参考訳): DREB-Net:高能率UAV物体検出のためのBlur-Feature Fusion Networkを組み込んだデュアルストリーム復元
- Authors: Qingpeng Li, Yuxin Zhang, Leyuan Fang, Yuhan Kang, Shutao Li, Xiao Xiang Zhu,
- Abstract要約: DREB-Netは、ぼやけた画像に特化して設計された、革新的なオブジェクト検出アルゴリズムである。
ブラリー画像復元補助枝を組み込むことにより、ぼやけた画像オブジェクト検出問題の特異性に対処する。
実験結果から, DREB-Netは撮影画像において, 動きのぼやけの下でオブジェクト検出タスクを効果的に行うことが可能であることが示唆された。
- 参考スコア(独自算出の注目度): 38.882935730384965
- License:
- Abstract: Object detection algorithms are pivotal components of unmanned aerial vehicle (UAV) imaging systems, extensively employed in complex fields. However, images captured by high-mobility UAVs often suffer from motion blur cases, which significantly impedes the performance of advanced object detection algorithms. To address these challenges, we propose an innovative object detection algorithm specifically designed for blurry images, named DREB-Net (Dual-stream Restoration Embedding Blur-feature Fusion Network). First, DREB-Net addresses the particularities of blurry image object detection problem by incorporating a Blurry image Restoration Auxiliary Branch (BRAB) during the training phase. Second, it fuses the extracted shallow features via Multi-level Attention-Guided Feature Fusion (MAGFF) module, to extract richer features. Here, the MAGFF module comprises local attention modules and global attention modules, which assign different weights to the branches. Then, during the inference phase, the deep feature extraction of the BRAB can be removed to reduce computational complexity and improve detection speed. In loss function, a combined loss of MSE and SSIM is added to the BRAB to restore blurry images. Finally, DREB-Net introduces Fast Fourier Transform in the early stages of feature extraction, via a Learnable Frequency domain Amplitude Modulation Module (LFAMM), to adjust feature amplitude and enhance feature processing capability. Experimental results indicate that DREB-Net can still effectively perform object detection tasks under motion blur in captured images, showcasing excellent performance and broad application prospects. Our source code will be available at https://github.com/EEIC-Lab/DREB-Net.git.
- Abstract(参考訳): 物体検出アルゴリズムは無人航空機(UAV)イメージングシステムの重要な構成要素であり、複雑な分野に広く利用されている。
しかし、高移動度UAVによって撮影された画像は、しばしば動きのぼかしに悩まされ、高度な物体検出アルゴリズムの性能を著しく損なう。
これらの課題に対処するために,DREB-Net(Dual-stream Restoration Embedding Blur-Feature Fusion Network)という,ぼやけた画像に特化して設計されたオブジェクト検出アルゴリズムを提案する。
まず、DREB-Netは、トレーニングフェーズ中にBlurry Image Restoration Auxiliary Branch (BRAB)を組み込むことで、ぼやけた画像オブジェクト検出の問題に対処する。
次に、Multi-level Attention-Guided Feature Fusion (MAGFF)モジュールを介して抽出された浅い特徴を融合させ、よりリッチな特徴を抽出する。
ここで、MAGFFモジュールはローカルアテンションモジュールとグローバルアテンションモジュールから構成され、枝に異なる重みを割り当てる。
そして、推論フェーズにおいて、BRABの深い特徴抽出を除去し、計算複雑性を低減し、検出速度を向上させる。
損失関数では、BRABにMSEとSSIMの複合損失を加えてぼやけた画像の復元を行う。
最後に、DREB-Netは、Learable Frequency Domain Amplitude Modulation Module (LFAMM)を介して、機能抽出の初期段階でFast Fourier Transformを導入し、機能振幅を調整し、機能処理能力を向上させる。
実験結果から, DREB-Netは, 撮影画像中の物体検出タスクを効果的に行うことができ, 優れた性能と幅広い応用可能性を示すことが示唆された。
ソースコードはhttps://github.com/EEIC-Lab/DREB-Net.git.comで公開されます。
関連論文リスト
- D-YOLO a robust framework for object detection in adverse weather conditions [0.0]
ヘイズ、雪、雨などの逆の気象条件は、画像品質の低下を招き、深層学習に基づく検知ネットワークの性能低下を招きかねない。
画像復元とオブジェクト検出のタスクをよりうまく統合するために,注目機能融合モジュールを備えた二重経路ネットワークを設計した。
我々はまた,検出ネットワークにヘイズフリーな機能を提供するサブネットワークを提案し,特に,明瞭な特徴抽出サブネットワークと検出ネットワーク間の距離を最小化することにより,検出ネットワークの性能を向上させる。
論文 参考訳(メタデータ) (2024-03-14T09:57:15Z) - FriendNet: Detection-Friendly Dehazing Network [24.372610892854283]
本稿では,イメージデハジングとオブジェクト検出を,ガイダンス情報とタスク駆動学習によってブリッジする効果的なアーキテクチャを提案する。
FriendNetは、高品質な認識と高い検出能力の両方を提供することを目指している。
論文 参考訳(メタデータ) (2024-03-07T12:19:04Z) - DiAD: A Diffusion-based Framework for Multi-class Anomaly Detection [55.48770333927732]
本稿では,拡散型異常検出(Difusion-based Anomaly Detection, DAD)フレームワークを提案する。
画素空間オートエンコーダ、安定拡散の復調ネットワークに接続する潜在空間セマンティックガイド(SG)ネットワーク、特徴空間事前学習機能抽出器から構成される。
MVTec-ADとVisAデータセットの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2023-12-11T18:38:28Z) - Adaptive Rotated Convolution for Rotated Object Detection [96.94590550217718]
本稿では、回転物体検出問題に対処するために、適応回転変換(ARC)モジュールを提案する。
ARCモジュールでは、コンボリューションカーネルが適応的に回転し、異なる画像に異なる向きのオブジェクト特徴を抽出する。
提案手法は,81.77%mAPのDOTAデータセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2023-03-14T11:53:12Z) - Efficient Image Super-Resolution with Feature Interaction Weighted Hybrid Network [101.53907377000445]
軽量画像超解像は、低解像度画像から低計算コストで高解像度画像を再構成することを目的としている。
既存の方法では、活性化関数による中間層の特徴が失われる。
本稿では,中間的特徴損失が再構成品質に与える影響を最小限に抑えるために,特徴相互作用重み付きハイブリッドネットワーク(FIWHN)を提案する。
論文 参考訳(メタデータ) (2022-12-29T05:57:29Z) - CDDFuse: Correlation-Driven Dual-Branch Feature Decomposition for
Multi-Modality Image Fusion [138.40422469153145]
本稿では,CDDFuse(Relationed-Driven Feature Decomposition Fusion)ネットワークを提案する。
近赤外可視画像融合や医用画像融合など,複数の融合タスクにおいてCDDFuseが有望な結果をもたらすことを示す。
論文 参考訳(メタデータ) (2022-11-26T02:40:28Z) - Fast Fourier Convolution Based Remote Sensor Image Object Detection for
Earth Observation [0.0]
リモートセンシングオブジェクト検出のための周波数対応特徴ピラミッドフレームワーク(FFPF)を提案する。
F-ResNetは、周波数領域の畳み込みをバックボーンの各ステージに差し込み、スペクトルコンテキスト情報を知覚するために提案される。
BSFPNは、双方向サンプリング戦略とスキップ接続を用いて、異なるスケールの物体の特徴の関連をより良くモデル化するように設計されている。
論文 参考訳(メタデータ) (2022-09-01T15:50:58Z) - CFC-Net: A Critical Feature Capturing Network for Arbitrary-Oriented
Object Detection in Remote Sensing Images [0.9462808515258465]
本稿では,物体検出における識別的特徴の役割について論じる。
次に,検出精度を向上させるために,cfc-net (critical feature capture network) を提案する。
本手法は多くの最先端手法と比較して優れた検出性能が得られることを示す。
論文 参考訳(メタデータ) (2021-01-18T02:31:09Z) - Feature Flow: In-network Feature Flow Estimation for Video Object
Detection [56.80974623192569]
光の流れはコンピュータビジョンのタスクで広く使われ、ピクセルレベルのモーション情報を提供する。
一般的なアプローチは、ニューラルネットワークへの前向き光学フローと、タスクデータセット上のこのネットワークの微調整である。
ビデオオブジェクト検出のための textbfIn-network textbfFeature textbfFlow 推定モジュールを用いた新しいネットワーク (IFF-Net) を提案する。
論文 参考訳(メタデータ) (2020-09-21T07:55:50Z) - Small-Object Detection in Remote Sensing Images with End-to-End
Edge-Enhanced GAN and Object Detector Network [9.135036713000513]
超高分解能GAN(ESRGAN)と呼ばれるGANベースモデルでは,画像強調性能が顕著である。
リモートセンシング画像の画質を向上させるために,新しいエッジ強化超解像GAN(EESRGAN)を提案する。
論文 参考訳(メタデータ) (2020-03-20T03:07:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。