論文の概要: SafeSpace MFNet: Precise and Efficient MultiFeature Drone Detection
Network
- arxiv url: http://arxiv.org/abs/2211.16785v1
- Date: Wed, 30 Nov 2022 06:56:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-01 17:06:16.314168
- Title: SafeSpace MFNet: Precise and Efficient MultiFeature Drone Detection
Network
- Title(参考訳): SafeSpace MFNet: 高精度かつ効率的な多機能ドローン検出ネットワーク
- Authors: Mahnoor Dil, Misha Urooj Khan, Muhammad Zeshan Alam, Farooq Alam
Orakazi, Zeeshan Kaleem, Chau Yuen
- Abstract要約: 無人航空機(UAV)は、セキュリティに敏感な国家および国際機関のセキュリティおよびプライバシープロトコルに違反する可能性がある。
提示された課題は、厳しい気象条件、異なる物体の存在、SafeSpaceを有効にするための大きさに関わらず、高速で効率的で正確なUAVの検出を必要とする。
SafeSpaceのための高精度かつ効率的なマルチスケール多機能UAV検出ネットワークを提案する。
- 参考スコア(独自算出の注目度): 11.260985382944813
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unmanned air vehicles (UAVs) popularity is on the rise as it enables the
services like traffic monitoring, emergency communications, deliveries, and
surveillance. However, the unauthorized usage of UAVs (a.k.a drone) may violate
security and privacy protocols for security-sensitive national and
international institutions. The presented challenges require fast, efficient,
and precise detection of UAVs irrespective of harsh weather conditions, the
presence of different objects, and their size to enable SafeSpace. Recently,
there has been significant progress in using the latest deep learning models,
but those models have shortcomings in terms of computational complexity,
precision, and non-scalability. To overcome these limitations, we propose a
precise and efficient multiscale and multifeature UAV detection network for
SafeSpace, i.e., \textit{MultiFeatureNet} (\textit{MFNet}), an improved version
of the popular object detection algorithm YOLOv5s. In \textit{MFNet}, we
perform multiple changes in the backbone and neck of the YOLOv5s network to
focus on the various small and ignored features required for accurate and fast
UAV detection. To further improve the accuracy and focus on the specific
situation and multiscale UAVs, we classify the \textit{MFNet} into small (S),
medium (M), and large (L): these are the combinations of various size filters
in the convolution and the bottleneckCSP layers, reside in the backbone and
neck of the architecture. This classification helps to overcome the
computational cost by training the model on a specific feature map rather than
all the features. The dataset and code are available as an open source:
github.com/ZeeshanKaleem/MultiFeatureNet.
- Abstract(参考訳): 無人航空機(UAV)の人気が高まっており、交通監視、緊急通信、配達、監視などのサービスを可能にしている。
しかし、uav(ドローン)の無許可使用は、セキュリティに敏感な国家および国際機関のセキュリティおよびプライバシープロトコルに違反する可能性がある。
提示された課題は、厳しい気象条件、異なる物体の存在、SafeSpaceを有効にするための大きさに関わらず、高速で効率的で正確なUAVの検出を必要とする。
近年,最新のディープラーニングモデルの利用が著しく進歩しているが,計算複雑性,精度,非スケーリング性の面では欠点がある。
これらの制限を克服するために,SafeSpace 用の高精度かつ効率的なマルチスケール多機能 UAV 検出ネットワーク,すなわち YOLOv5s の改良版である \textit{MultiFeatureNet} (\textit{MFNet}) を提案する。
textit{mfnet}では、yolov5sネットワークのバックボーンとネックに複数の変更を加え、正確かつ高速なuav検出に必要な、小さく無視されたさまざまな機能に焦点を当てます。
特定の状況とマルチスケールのUAVの精度をさらに向上させるため、アーキテクチャの背骨と首部に存在する畳み込み層とボトルネックCSP層の様々な大きさのフィルタの組み合わせである、小(S), 中(M),大(L)に分類する。
この分類は、すべての特徴ではなく、特定の特徴マップ上でモデルをトレーニングすることで、計算コストを克服するのに役立つ。
データセットとコードは、github.com/ZeeshanKaleem/MultiFeatureNetというオープンソースとして提供されている。
関連論文リスト
- PVAFN: Point-Voxel Attention Fusion Network with Multi-Pooling Enhancing for 3D Object Detection [59.355022416218624]
点とボクセルの表現の統合は、LiDARベースの3Dオブジェクト検出においてより一般的になりつつある。
PVAFN(Point-Voxel Attention Fusion Network)と呼ばれる新しい2段3次元物体検出器を提案する。
PVAFNはマルチプール戦略を使用して、マルチスケールとリージョン固有の情報を効果的に統合する。
論文 参考訳(メタデータ) (2024-08-26T19:43:01Z) - SalFAU-Net: Saliency Fusion Attention U-Net for Salient Object Detection [0.0]
Saliency Fusion Attention U-Net (SalFAU-Net) モデルは、各デコーダブロックからSaliency probability mapを生成する。
DUTSデータセット上のSalFAU-Netをバイナリクロスエントロピー損失関数を用いて訓練する。
本手法は, 平均絶対誤差(MAE), F測定, s測定, e測定において, 他の手法と比較して, 競合性能が向上する。
論文 参考訳(メタデータ) (2024-05-05T12:11:33Z) - Joint Attention-Guided Feature Fusion Network for Saliency Detection of
Surface Defects [69.39099029406248]
本稿では,エンコーダ・デコーダネットワークに基づく表面欠陥検出のための共同注意誘導型特徴融合ネットワーク(JAFFNet)を提案する。
JAFFNetは、主にJAFFモジュールをデコードステージに組み込んで、低レベルと高レベルの機能を適応的に融合させる。
SD- Saliency-900, Magnetic tile, and DAGM 2007 で行った実験から,本手法が他の最先端手法と比較して有望な性能を達成できたことが示唆された。
論文 参考訳(メタデータ) (2024-02-05T08:10:16Z) - Self-supervised Feature Adaptation for 3D Industrial Anomaly Detection [59.41026558455904]
具体的には,大規模ビジュアルデータセット上で事前学習されたモデルを利用した初期のマルチモーダルアプローチについて検討する。
本研究では,アダプタを微調整し,異常検出に向けたタスク指向の表現を学習するためのLSFA法を提案する。
論文 参考訳(メタデータ) (2024-01-06T07:30:41Z) - Dual Attention U-Net with Feature Infusion: Pushing the Boundaries of
Multiclass Defect Segmentation [1.487252325779766]
提案アーキテクチャであるDual Attentive U-Net with Feature Infusion (DAU-FI Net)はセマンティックセグメンテーションにおける課題に対処する。
DAU-FI Netは、複数スケールの空間チャネルアテンション機構と特徴注入を統合し、オブジェクトのローカライゼーションの精度を高める。
挑戦的な下水道管と、欠陥データセットと、DAU-FI Netの能力を検証したベンチマークデータセットに関する総合的な実験。
論文 参考訳(メタデータ) (2023-12-21T17:23:49Z) - Innovative Horizons in Aerial Imagery: LSKNet Meets DiffusionDet for
Advanced Object Detection [55.2480439325792]
本稿では,LSKNetのバックボーンをDiffusionDetヘッドに統合したオブジェクト検出モデルの詳細な評価を行う。
提案手法は平均精度(MAP)を約45.7%向上させる。
この進歩は、提案された修正の有効性を強調し、航空画像解析の新しいベンチマークを設定する。
論文 参考訳(メタデータ) (2023-11-21T19:49:13Z) - MBDF-Net: Multi-Branch Deep Fusion Network for 3D Object Detection [17.295359521427073]
3次元物体検出のためのMulti-Branch Deep Fusion Network (MBDF-Net)を提案する。
最初の段階では、マルチブランチ機能抽出ネットワークは、Adaptive Attention Fusionモジュールを使用して、単一モーダルなセマンティックな特徴からクロスモーダルな融合機能を生成する。
第2段階では、関心領域(RoI)をプールした核融合モジュールを用いて局所的な特徴を改良する。
論文 参考訳(メタデータ) (2021-08-29T15:40:15Z) - EPMF: Efficient Perception-aware Multi-sensor Fusion for 3D Semantic Segmentation [62.210091681352914]
自律運転やロボティクスなど,多くのアプリケーションを対象とした3次元セマンティックセマンティックセグメンテーションのためのマルチセンサフュージョンについて検討する。
本研究では,知覚認識型マルチセンサフュージョン(PMF)と呼ばれる協調融合方式について検討する。
本稿では,2つのモードから特徴を分離して抽出する2ストリームネットワークを提案する。
論文 参考訳(メタデータ) (2021-06-21T10:47:26Z) - End-to-End Object Detection with Fully Convolutional Network [71.56728221604158]
エンドツーエンド検出を実現するために,分類のための予測対応ワン・ツー・ワン (POTO) ラベルの割り当てを導入する。
局所領域における畳み込みの判別性を向上させるために, 簡易な3次元maxフィルタ(3dmf)を提案する。
エンドツーエンドのフレームワークは,COCOおよびCrowdHumanデータセット上のNMSを用いて,最先端の多くの検出器と競合する性能を実現する。
論文 参考訳(メタデータ) (2020-12-07T09:14:55Z) - Multi-View Adaptive Fusion Network for 3D Object Detection [14.506796247331584]
LiDAR-カメラ融合に基づく3Dオブジェクト検出は、自動運転の新たな研究テーマになりつつある。
本稿では,LiDARの鳥眼ビュー,LiDARレンジビュー,カメラビューイメージを3Dオブジェクト検出の入力として利用する,単一ステージ多視点融合フレームワークを提案する。
これら2つのコンポーネントを統合するために,MVAF-Netというエンドツーエンドの学習ネットワークを設計する。
論文 参考訳(メタデータ) (2020-11-02T00:06:01Z) - PENet: Object Detection using Points Estimation in Aerial Images [9.33900415971554]
これらの課題に対処するために,新しいネットワーク構造であるポイント推定ネットワーク(PENet)を提案する。
PENetはMask Resampling Module(MRM)を使用して、不均衡なデータセットを増大させ、粗いアンカーフリー検出器(CPEN)で小さなオブジェクトクラスタの中心点を効果的に予測し、微細なアンカーフリー検出器FPENで小さなオブジェクトの正確な位置を特定する。
航空データセット visDrone と UAVDT による実験により,PENet は既存の最先端手法よりも精度の高い結果を得た。
論文 参考訳(メタデータ) (2020-01-22T19:43:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。