論文の概要: SafeSpace MFNet: Precise and Efficient MultiFeature Drone Detection
Network
- arxiv url: http://arxiv.org/abs/2211.16785v2
- Date: Fri, 6 Oct 2023 04:36:27 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-13 15:37:43.984792
- Title: SafeSpace MFNet: Precise and Efficient MultiFeature Drone Detection
Network
- Title(参考訳): SafeSpace MFNet: 高精度かつ効率的な多機能ドローン検出ネットワーク
- Authors: Misha Urooj Khan, Mahnoor Dil, Muhammad Zeshan Alam, Farooq Alam
Orakazi, Abdullah M. Almasoud, Zeeshan Kaleem, Chau Yuen
- Abstract要約: MultiFeatureNet(MFNet)は、最も集中した特徴マップをキャプチャすることで特徴表現を強化するソリューションである。
MFNet-FAは入力特徴写像の異なるチャネルを適応的に重み付けする手法である。
フォーカスモジュールを用いたMFNet-L(Ablation study 2)は,最も顕著な分類結果を示す。
- 参考スコア(独自算出の注目度): 12.221253007423394
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The increasing prevalence of unmanned aerial vehicles (UAVs), commonly known
as drones, has generated a demand for reliable detection systems. The
inappropriate use of drones presents potential security and privacy hazards,
particularly concerning sensitive facilities. To overcome those obstacles, we
proposed the concept of MultiFeatureNet (MFNet), a solution that enhances
feature representation by capturing the most concentrated feature maps.
Additionally, we present MultiFeatureNet-Feature Attention (MFNet-FA), a
technique that adaptively weights different channels of the input feature maps.
To meet the requirements of multi-scale detection, we presented the versions of
MFNet and MFNet-FA, namely the small (S), medium (M), and large (L). The
outcomes reveal notable performance enhancements. For optimal bird detection,
MFNet-M (Ablation study 2) achieves an impressive precision of 99.8\%, while
for UAV detection, MFNet-L (Ablation study 2) achieves a precision score of
97.2\%. Among the options, MFNet-FA-S (Ablation study 3) emerges as the most
resource-efficient alternative, considering its small feature map size,
computational demands (GFLOPs), and operational efficiency (in frame per
second). This makes it particularly suitable for deployment on hardware with
limited capabilities. Additionally, MFNet-FA-S (Ablation study 3) stands out
for its swift real-time inference and multiple-object detection due to the
incorporation of the FA module. The proposed MFNet-L with the focus module
(Ablation study 2) demonstrates the most remarkable classification outcomes,
boasting an average precision of 98.4\%, average recall of 96.6\%, average mean
average precision (mAP) of 98.3\%, and average intersection over union (IoU) of
72.8\%. To encourage reproducible research, the dataset, and code for MFNet are
freely available as an open-source project:
github.com/ZeeshanKaleem/MultiFeatureNet.
- Abstract(参考訳): ドローンとして知られる無人航空機(uav)の普及は、信頼性の高い検出システムに対する需要を生み出した。
ドローンの不適切な使用は、特に機密施設に関して、潜在的なセキュリティとプライバシーの危険をもたらす。
これらの障害を克服するために、最も集中した特徴マップをキャプチャして特徴表現を強化するソリューションであるMFNet(MultiFeatureNet)の概念を提案した。
さらに,入力特徴マップの異なるチャネルを適応的に重み付けする手法であるmultifeaturenet-feature attention (mfnet-fa)を提案する。
マルチスケール検出の要件を満たすため,MFNetとMFNet-FAのバージョン,すなわち小型(S),中型(M),大型(L)を提示した。
その結果、顕著なパフォーマンス向上が明らかになった。
最適鳥検出のためのmfnet-m(アブレーション研究)
2)UAV検出におけるMFNet-L(アブレーション研究)の精度は99.8\%である。
2)精度スコア97.2\%を達成する。
MFNet-FA-S(アブレーション研究)
3) より小さな特徴マップサイズ、計算要求(GFLOP)、運用効率(毎秒フレーム)を考慮すると、最もリソース効率のよい代替案として登場します。
これにより、限られた機能を持つハードウェアへのデプロイに特に適している。
さらにMFNet-FA-S(アブレーション研究)
3) faモジュールが組み込まれているため、swiftリアルタイム推論とマルチオブジェクト検出が際立っている。
フォーカスモジュールを用いたMFNet-Lの提案(アブレーション研究)
2)最も顕著な分類結果を示し、平均精度は98.4\%、平均リコール率は96.6\%、平均平均精度(マップ)は98.3\%、平均交点率(iou)は72.8\%である。
再現可能な研究を促進するため、MFNetのデータセットとコードは、オープンソースのプロジェクトとして、github.com/ZeeshanKaleem/MultiFeatureNetとして自由に利用可能である。
関連論文リスト
- PVAFN: Point-Voxel Attention Fusion Network with Multi-Pooling Enhancing for 3D Object Detection [59.355022416218624]
点とボクセルの表現の統合は、LiDARベースの3Dオブジェクト検出においてより一般的になりつつある。
PVAFN(Point-Voxel Attention Fusion Network)と呼ばれる新しい2段3次元物体検出器を提案する。
PVAFNはマルチプール戦略を使用して、マルチスケールとリージョン固有の情報を効果的に統合する。
論文 参考訳(メタデータ) (2024-08-26T19:43:01Z) - SalFAU-Net: Saliency Fusion Attention U-Net for Salient Object Detection [0.0]
Saliency Fusion Attention U-Net (SalFAU-Net) モデルは、各デコーダブロックからSaliency probability mapを生成する。
DUTSデータセット上のSalFAU-Netをバイナリクロスエントロピー損失関数を用いて訓練する。
本手法は, 平均絶対誤差(MAE), F測定, s測定, e測定において, 他の手法と比較して, 競合性能が向上する。
論文 参考訳(メタデータ) (2024-05-05T12:11:33Z) - Joint Attention-Guided Feature Fusion Network for Saliency Detection of
Surface Defects [69.39099029406248]
本稿では,エンコーダ・デコーダネットワークに基づく表面欠陥検出のための共同注意誘導型特徴融合ネットワーク(JAFFNet)を提案する。
JAFFNetは、主にJAFFモジュールをデコードステージに組み込んで、低レベルと高レベルの機能を適応的に融合させる。
SD- Saliency-900, Magnetic tile, and DAGM 2007 で行った実験から,本手法が他の最先端手法と比較して有望な性能を達成できたことが示唆された。
論文 参考訳(メタデータ) (2024-02-05T08:10:16Z) - Self-supervised Feature Adaptation for 3D Industrial Anomaly Detection [59.41026558455904]
具体的には,大規模ビジュアルデータセット上で事前学習されたモデルを利用した初期のマルチモーダルアプローチについて検討する。
本研究では,アダプタを微調整し,異常検出に向けたタスク指向の表現を学習するためのLSFA法を提案する。
論文 参考訳(メタデータ) (2024-01-06T07:30:41Z) - Dual Attention U-Net with Feature Infusion: Pushing the Boundaries of
Multiclass Defect Segmentation [1.487252325779766]
提案アーキテクチャであるDual Attentive U-Net with Feature Infusion (DAU-FI Net)はセマンティックセグメンテーションにおける課題に対処する。
DAU-FI Netは、複数スケールの空間チャネルアテンション機構と特徴注入を統合し、オブジェクトのローカライゼーションの精度を高める。
挑戦的な下水道管と、欠陥データセットと、DAU-FI Netの能力を検証したベンチマークデータセットに関する総合的な実験。
論文 参考訳(メタデータ) (2023-12-21T17:23:49Z) - Innovative Horizons in Aerial Imagery: LSKNet Meets DiffusionDet for
Advanced Object Detection [55.2480439325792]
本稿では,LSKNetのバックボーンをDiffusionDetヘッドに統合したオブジェクト検出モデルの詳細な評価を行う。
提案手法は平均精度(MAP)を約45.7%向上させる。
この進歩は、提案された修正の有効性を強調し、航空画像解析の新しいベンチマークを設定する。
論文 参考訳(メタデータ) (2023-11-21T19:49:13Z) - MBDF-Net: Multi-Branch Deep Fusion Network for 3D Object Detection [17.295359521427073]
3次元物体検出のためのMulti-Branch Deep Fusion Network (MBDF-Net)を提案する。
最初の段階では、マルチブランチ機能抽出ネットワークは、Adaptive Attention Fusionモジュールを使用して、単一モーダルなセマンティックな特徴からクロスモーダルな融合機能を生成する。
第2段階では、関心領域(RoI)をプールした核融合モジュールを用いて局所的な特徴を改良する。
論文 参考訳(メタデータ) (2021-08-29T15:40:15Z) - EPMF: Efficient Perception-aware Multi-sensor Fusion for 3D Semantic Segmentation [62.210091681352914]
自律運転やロボティクスなど,多くのアプリケーションを対象とした3次元セマンティックセマンティックセグメンテーションのためのマルチセンサフュージョンについて検討する。
本研究では,知覚認識型マルチセンサフュージョン(PMF)と呼ばれる協調融合方式について検討する。
本稿では,2つのモードから特徴を分離して抽出する2ストリームネットワークを提案する。
論文 参考訳(メタデータ) (2021-06-21T10:47:26Z) - End-to-End Object Detection with Fully Convolutional Network [71.56728221604158]
エンドツーエンド検出を実現するために,分類のための予測対応ワン・ツー・ワン (POTO) ラベルの割り当てを導入する。
局所領域における畳み込みの判別性を向上させるために, 簡易な3次元maxフィルタ(3dmf)を提案する。
エンドツーエンドのフレームワークは,COCOおよびCrowdHumanデータセット上のNMSを用いて,最先端の多くの検出器と競合する性能を実現する。
論文 参考訳(メタデータ) (2020-12-07T09:14:55Z) - Multi-View Adaptive Fusion Network for 3D Object Detection [14.506796247331584]
LiDAR-カメラ融合に基づく3Dオブジェクト検出は、自動運転の新たな研究テーマになりつつある。
本稿では,LiDARの鳥眼ビュー,LiDARレンジビュー,カメラビューイメージを3Dオブジェクト検出の入力として利用する,単一ステージ多視点融合フレームワークを提案する。
これら2つのコンポーネントを統合するために,MVAF-Netというエンドツーエンドの学習ネットワークを設計する。
論文 参考訳(メタデータ) (2020-11-02T00:06:01Z) - PENet: Object Detection using Points Estimation in Aerial Images [9.33900415971554]
これらの課題に対処するために,新しいネットワーク構造であるポイント推定ネットワーク(PENet)を提案する。
PENetはMask Resampling Module(MRM)を使用して、不均衡なデータセットを増大させ、粗いアンカーフリー検出器(CPEN)で小さなオブジェクトクラスタの中心点を効果的に予測し、微細なアンカーフリー検出器FPENで小さなオブジェクトの正確な位置を特定する。
航空データセット visDrone と UAVDT による実験により,PENet は既存の最先端手法よりも精度の高い結果を得た。
論文 参考訳(メタデータ) (2020-01-22T19:43:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。