論文の概要: AUDRON: A Deep Learning Framework with Fused Acoustic Signatures for Drone Type Recognition
- arxiv url: http://arxiv.org/abs/2512.20407v1
- Date: Tue, 23 Dec 2025 14:55:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-24 19:17:49.911456
- Title: AUDRON: A Deep Learning Framework with Fused Acoustic Signatures for Drone Type Recognition
- Title(参考訳): AUDRON:ドローン型認識のための融合音響信号を用いたディープラーニングフレームワーク
- Authors: Rajdeep Chatterjee, Sudip Chakrabarty, Trishaani Acharjee, Deepanjali Mishra,
- Abstract要約: 無人航空機(UAV)は、ロジスティクス、農業、監視、防衛など様々な分野にまたがっている。
アコースティックセンシングは、視覚やレーダーによる検出に対して、低コストで非侵襲的な代替手段を提供する。
本研究では,ドローン音検出のためのハイブリッドディープラーニングフレームワークであるAUDRONを紹介する。
- 参考スコア(独自算出の注目度): 1.8665975431697428
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unmanned aerial vehicles (UAVs), commonly known as drones, are increasingly used across diverse domains, including logistics, agriculture, surveillance, and defense. While these systems provide numerous benefits, their misuse raises safety and security concerns, making effective detection mechanisms essential. Acoustic sensing offers a low-cost and non-intrusive alternative to vision or radar-based detection, as drone propellers generate distinctive sound patterns. This study introduces AUDRON (AUdio-based Drone Recognition Network), a hybrid deep learning framework for drone sound detection, employing a combination of Mel-Frequency Cepstral Coefficients (MFCC), Short-Time Fourier Transform (STFT) spectrograms processed with convolutional neural networks (CNNs), recurrent layers for temporal modeling, and autoencoder-based representations. Feature-level fusion integrates complementary information before classification. Experimental evaluation demonstrates that AUDRON effectively differentiates drone acoustic signatures from background noise, achieving high accuracy while maintaining generalizability across varying conditions. AUDRON achieves 98.51 percent and 97.11 percent accuracy in binary and multiclass classification. The results highlight the advantage of combining multiple feature representations with deep learning for reliable acoustic drone detection, suggesting the framework's potential for deployment in security and surveillance applications where visual or radar sensing may be limited.
- Abstract(参考訳): 無人航空機(UAV)は、ロジスティクス、農業、監視、防衛など、様々な分野に広く使われている。
これらのシステムには多くのメリットがあるが、その誤用は安全性とセキュリティの懸念を高め、効果的な検出メカニズムが不可欠である。
音響センサーは、ドローンプロペラが独特の音響パターンを生成するため、視覚やレーダーによる検出に代わる低コストで非侵襲的な代替手段を提供する。
本研究では,Mel-Frequency Cepstral Coefficients(MFCC),Short-Time Fourier Transform(STFT)スペクトログラムを畳み込みニューラルネットワーク(CNN)で処理し,時間的モデリングのための繰り返しレイヤとオートエンコーダに基づく表現を組み合わせた,ドローン音検出のためのハイブリッドディープラーニングフレームワークであるAUDRON(Audio-based Drone Recognition Network)を紹介する。
特徴レベルの融合は、分類の前に相補的な情報を統合する。
実験により、AUDRONは背景雑音とドローン音響署名を効果的に区別し、様々な条件にまたがる一般化性を維持しつつ高い精度を達成できることが示されている。
AUDRONは、98.51パーセントと97.11パーセントの精度をバイナリクラスとマルチクラスの分類で達成している。
この結果は、複数の特徴表現とディープラーニングを組み合わせることで、信頼性の高い音響ドローン検出を可能にし、視覚やレーダーの検知が制限される可能性のあるセキュリティや監視アプリケーションに、フレームワークが展開する可能性を示唆している。
関連論文リスト
- Wavelet-Guided Dual-Frequency Encoding for Remote Sensing Change Detection [67.84730634802204]
リモートセンシング画像の変化検出は,自然災害監視,都市拡張追跡,インフラ管理など,さまざまな工学的応用において重要な役割を担っている。
既存のほとんどの手法は空間領域モデリングに依存しており、特徴表現の限られた多様性は微妙な変化領域の検出を妨げる。
本研究では、特にウェーブレット領域における周波数領域の特徴モデリングが周波数成分の微細な違いを増幅し、空間領域において捉えにくいエッジ変化の知覚を高めることを観察する。
論文 参考訳(メタデータ) (2025-08-07T11:14:16Z) - Robust Low-Cost Drone Detection and Classification in Low SNR Environments [0.9087641068861043]
ドローンを検知し、分類する能力について、様々な畳み込みニューラルネットワーク(CNN)を評価した。
本稿では,標準コンピュータ,ソフトウェア定義無線(SDR),アンテナを用いた低コストドローン検知システムについて紹介する。
論文 参考訳(メタデータ) (2024-06-26T12:50:55Z) - Multi-Stage Fusion Architecture for Small-Drone Localization and Identification Using Passive RF and EO Imagery: A Case Study [0.1872664641238533]
本研究では、受動無線周波数(RF)と電気光学(EO)画像データを用いた多段階融合アーキテクチャを開発する。
教師なしの深層学習に基づく手法と、教師なしの地上/後方分離手法を探索し、挑戦的な環境に対処する。
提案した融合アーキテクチャを検証し,その範囲で追跡性能を定量化する。
論文 参考訳(メタデータ) (2024-03-30T22:53:28Z) - Frequency-Aware Deepfake Detection: Improving Generalizability through
Frequency Space Learning [81.98675881423131]
この研究は、目に見えないディープフェイク画像を効果的に識別できるユニバーサルディープフェイク検出器を開発するという課題に対処する。
既存の周波数ベースのパラダイムは、偽造検出のためにGANパイプラインのアップサンプリング中に導入された周波数レベルのアーティファクトに依存している。
本稿では、周波数領域学習を中心にしたFreqNetと呼ばれる新しい周波数認識手法を導入し、ディープフェイク検出器の一般化性を高めることを目的とする。
論文 参考訳(メタデータ) (2024-03-12T01:28:00Z) - A Two-Dimensional Deep Network for RF-based Drone Detection and
Identification Towards Secure Coverage Extension [7.717171534776764]
時間領域情報と周波数領域情報の両方を含む生信号から2次元特徴を抽出するために,ショートタイムフーリエ変換を用いる。
次に、ResNet構造で構築された畳み込みニューラルネットワーク(CNN)を用いて、マルチクラス分類を実現する。
実験の結果,提案したResNet-STFTは,拡張データセット上でより精度が高く,より高速に収束できることがわかった。
論文 参考訳(メタデータ) (2023-08-26T15:43:39Z) - Echoes Beyond Points: Unleashing the Power of Raw Radar Data in
Multi-modality Fusion [74.84019379368807]
本稿では,既存のレーダ信号処理パイプラインをスキップするEchoFusionという新しい手法を提案する。
具体的には、まずBird's Eye View (BEV)クエリを生成し、次にレーダーから他のセンサーとフューズに対応するスペクトル特徴を取ります。
論文 参考訳(メタデータ) (2023-07-31T09:53:50Z) - Histogram Layer Time Delay Neural Networks for Passive Sonar
Classification [58.720142291102135]
時間遅延ニューラルネットワークとヒストグラム層を組み合わせた新しい手法により,特徴学習の改善と水中音響目標分類を実現する。
提案手法はベースラインモデルより優れており,受動的ソナー目標認識のための統計的文脈を取り入れた有効性を示す。
論文 参考訳(メタデータ) (2023-07-25T19:47:26Z) - Deep Spectro-temporal Artifacts for Detecting Synthesized Speech [57.42110898920759]
本稿では,トラック1(低品質フェイク音声検出)とトラック2(部分フェイク音声検出)の総合評価を行う。
本稿では, 原時間信号, スペクトル特性, 深層埋没特性を用いて, 分光時相アーティファクトを検出した。
我々はそれぞれ1番線と2番線で4位と5位にランクインした。
論文 参考訳(メタデータ) (2022-10-11T08:31:30Z) - DAE : Discriminatory Auto-Encoder for multivariate time-series anomaly
detection in air transportation [68.8204255655161]
識別オートエンコーダ(DAE)と呼ばれる新しい異常検出モデルを提案する。
通常のLSTMベースのオートエンコーダのベースラインを使用するが、いくつかのデコーダがあり、それぞれ特定の飛行フェーズのデータを取得する。
その結果,DAEは精度と検出速度の両方で良好な結果が得られることがわかった。
論文 参考訳(メタデータ) (2021-09-08T14:07:55Z) - Amateur Drones Detection: A machine learning approach utilizing the
acoustic signals in the presence of strong interference [10.74088633638169]
アマチュアドローン(AmDr)と呼ばれる無人機の無人配備は、深刻なセキュリティ上の脅威と人間の生命とインフラへのリスクをもたらす可能性がある。
本稿では,鳥,飛行機,雷雨,雨,風,UAVなどの音響信号を検出するための効率的な機械学習手法を提案する。
論文 参考訳(メタデータ) (2020-02-28T17:28:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。