論文の概要: TRIDENT: Tri-modal Real-time Intrusion Detection Engine for New Targets
- arxiv url: http://arxiv.org/abs/2504.06417v1
- Date: Tue, 08 Apr 2025 20:33:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-10 13:05:15.094562
- Title: TRIDENT: Tri-modal Real-time Intrusion Detection Engine for New Targets
- Title(参考訳): TRIDENT:新しいターゲットの3モードリアルタイム侵入検出エンジン
- Authors: Ildi Alla, Selma Yahia, Valeria Loscri,
- Abstract要約: TRIDENTは、同期オーディオ、視覚、およびデータを統合した、トリモーダルなドローン検出フレームワークである。
リアルタイムに動作し、わずか6.09msでドローンを検知し、1回の検知で75.27mJしか消費しない。
- 参考スコア(独自算出の注目度): 0.3277163122167434
- License:
- Abstract: The increasing availability of drones and their potential for malicious activities pose significant privacy and security risks, necessitating fast and reliable detection in real-world environments. However, existing drone detection systems often struggle in real-world settings due to environmental noise and sensor limitations. This paper introduces TRIDENT, a tri-modal drone detection framework that integrates synchronized audio, visual, and RF data to enhance robustness and reduce dependence on individual sensors. TRIDENT introduces two fusion strategies - Late Fusion and GMU Fusion - to improve multi-modal integration while maintaining efficiency. The framework incorporates domain-specific feature extraction techniques alongside a specialized data augmentation pipeline that simulates real-world sensor degradation to improve generalization capabilities. A diverse multi-sensor dataset is collected in urban and non-urban environments under varying lighting conditions, ensuring comprehensive evaluation. Experimental results show that TRIDENT achieves 98.8 percent accuracy in real-world recordings and 83.26 percent in a more complex setting (augmented data), outperforming unimodal and dual-modal baselines. Moreover, TRIDENT operates in real-time, detecting drones in just 6.09 ms while consuming only 75.27 mJ per detection, making it highly efficient for resource-constrained devices. The dataset and code have been released to ensure reproducibility (https://github.com/TRIDENT-2025/TRIDENT).
- Abstract(参考訳): ドローンの普及と悪質な活動の可能性は、プライバシーとセキュリティの重大なリスクをもたらし、現実の環境で高速で信頼性の高い検出を必要としている。
しかし、既存のドローン検知システムは、環境騒音やセンサーの制限により、現実世界の環境に苦しむことが多い。
本稿では,音声,視覚,RFデータを統合したトリモーダルドローン検出フレームワークTRIDENTを紹介し,ロバスト性を高め,個々のセンサへの依存性を低減する。
TRIDENTはレイトフュージョンとGMUフュージョンという2つの融合戦略を導入し、効率を保ちながらマルチモーダル統合を改善する。
このフレームワークには、ドメイン固有の特徴抽出技術と、実世界のセンサー劣化をシミュレートして一般化機能を改善する特殊なデータ拡張パイプラインが組み込まれている。
多様なマルチセンサデータセットは、様々な照明条件下で都市および非都市環境で収集され、包括的な評価が保証される。
実験の結果、TRIDENTは実世界の録音では98.8%の精度、さらに複雑な設定(拡張データ)では83.26パーセントの精度を達成し、単調および二重モードのベースラインを上回った。
さらに、TRIDENTはリアルタイムで動作し、わずか6.09msでドローンを検知し、1回の検知で75.27mJしか消費しない。
再現性を確保するためにデータセットとコードがリリースされた(https://github.com/TRIDENT-2025/TRIDENT)。
関連論文リスト
- TransRAD: Retentive Vision Transformer for Enhanced Radar Object Detection [6.163747364795787]
本稿では,新しい3次元レーダ物体検出モデルであるTransRADを提案する。
本研究では、ディープレーダオブジェクト検出における重複境界ボックスの共通問題を軽減するために、位置認識型NMSを提案する。
その結果,TransRADは2次元および3次元のレーダ検出タスクにおいて最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2025-01-29T20:21:41Z) - Multi-visual modality micro drone-based structural damage detection [0.3495246564946556]
DetectorXは、マイクロドローンと組み合わせた構造損傷検出のための堅牢なフレームワークである。
幹ブロックは2つのディープ畳み込みニューラルネットワーク(DCNN)モデルの出力を活用することで動的視覚的モダリティを導入する。
オンライン画像拡張手法であるスパイラルプール技術は,特徴表現の増大によってフレームワークを強化している。
論文 参考訳(メタデータ) (2025-01-15T14:03:27Z) - RADAR: Robust Two-stage Modality-incomplete Industrial Anomaly Detection [61.71770293720491]
本稿では,2段階のロバスト・モードアリティ不完全融合とFlaAmewoRkの検出について提案する。
我々のブートストラッピング哲学は、MIIADの2段階を強化し、マルチモーダルトランスの堅牢性を向上させることである。
実験の結果,提案手法は従来のMIAD法よりも有効性とロバスト性に優れていた。
論文 参考訳(メタデータ) (2024-10-02T16:47:55Z) - Robust Multimodal 3D Object Detection via Modality-Agnostic Decoding and Proximity-based Modality Ensemble [15.173314907900842]
既存の3Dオブジェクト検出方法は、LiDARセンサーに大きく依存している。
我々は,LiDAR過信頼問題に対処するためにMEFormerを提案する。
我々のMEFormerは73.9% NDSと71.5% mAPの最先端性能を実現している。
論文 参考訳(メタデータ) (2024-07-27T03:21:44Z) - Navigating the Smog: A Cooperative Multi-Agent RL for Accurate Air Pollution Mapping through Data Assimilation [1.692437325972209]
本稿では,自律型ドローンが空飛ぶ探偵として機能する,空気質マッピングの新しい手法を提案する。
当社のソリューションでは、ダイナミックなクレジット割り当てを備えたリターン機能を採用しており、ドローンによる情報測定の優先順位付けを可能にしている。
空気の質以外にも、このソリューションは山火事の検出や管理といった多様な環境問題に対処する可能性を秘めている。
論文 参考訳(メタデータ) (2024-07-17T13:24:27Z) - Bridging the Gap Between End-to-End and Two-Step Text Spotting [88.14552991115207]
ブリッジングテキストスポッティングは、2段階のメソッドでエラーの蓄積と最適化性能の問題を解決する新しいアプローチである。
提案手法の有効性を広範囲な実験により実証する。
論文 参考訳(メタデータ) (2024-04-06T13:14:04Z) - Multi-Stage Fusion Architecture for Small-Drone Localization and Identification Using Passive RF and EO Imagery: A Case Study [0.1872664641238533]
本研究では、受動無線周波数(RF)と電気光学(EO)画像データを用いた多段階融合アーキテクチャを開発する。
教師なしの深層学習に基づく手法と、教師なしの地上/後方分離手法を探索し、挑戦的な環境に対処する。
提案した融合アーキテクチャを検証し,その範囲で追跡性能を定量化する。
論文 参考訳(メタデータ) (2024-03-30T22:53:28Z) - Joint Sensing, Communication, and AI: A Trifecta for Resilient THz User
Experiences [118.91584633024907]
テラヘルツ(THz)無線システムに対する拡張現実(XR)体験を最適化するために、新しい共同センシング、通信、人工知能(AI)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-04-29T00:39:50Z) - Inertial Hallucinations -- When Wearable Inertial Devices Start Seeing
Things [82.15959827765325]
環境支援型生活(AAL)のためのマルチモーダルセンサフュージョンの新しいアプローチを提案する。
我々は、標準マルチモーダルアプローチの2つの大きな欠点、限られた範囲のカバレッジ、信頼性の低下に対処する。
我々の新しいフレームワークは、三重項学習によるモダリティ幻覚の概念を融合させ、異なるモダリティを持つモデルを訓練し、推論時に欠落したセンサーに対処する。
論文 参考訳(メタデータ) (2022-07-14T10:04:18Z) - SHIFT: A Synthetic Driving Dataset for Continuous Multi-Task Domain
Adaptation [152.60469768559878]
ShiFTは、自動運転のための最大規模のマルチタスク合成データセットである。
曇り、雨と霧の強さ、昼の時間、車と歩行者の密度を個別に連続的に変化させる。
私たちのデータセットとベンチマークツールキットはwww.vis.xyz/shift.comで公開されています。
論文 参考訳(メタデータ) (2022-06-16T17:59:52Z) - A Wireless-Vision Dataset for Privacy Preserving Human Activity
Recognition [53.41825941088989]
アクティビティ認識の堅牢性を改善するため,WiNN(WiFi-based and video-based neural network)が提案されている。
以上の結果から,WiViデータセットは一次需要を満足し,パイプライン内の3つのブランチはすべて,80%以上のアクティビティ認識精度を維持していることがわかった。
論文 参考訳(メタデータ) (2022-05-24T10:49:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。