論文の概要: Real Time Deep Learning Weapon Detection Techniques for Mitigating Lone Wolf Attacks
- arxiv url: http://arxiv.org/abs/2405.14148v1
- Date: Thu, 23 May 2024 03:48:26 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-24 19:05:09.650987
- Title: Real Time Deep Learning Weapon Detection Techniques for Mitigating Lone Wolf Attacks
- Title(参考訳): 実時間深層学習ウェポン検出による狼攻撃の軽減
- Authors: Kambhatla Akhila, Khaled R Ahmed,
- Abstract要約: 本研究は、モデル検証とトレーニングのための(You Look Only Once)ファミリーとFaster RCNNファミリに焦点を当てる。
モデルは推定速度8.1msで最高スコア78%に達する。
しかし、より高速なRCNNモデルはAP 89%を達成している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Firearm Shootings and stabbings attacks are intense and result in severe trauma and threat to public safety. Technology is needed to prevent lone-wolf attacks without human supervision. Hence designing an automatic weapon detection using deep learning, is an optimized solution to localize and detect the presence of weapon objects using Neural Networks. This research focuses on both unified and II-stage object detectors whose resultant model not only detects the presence of weapons but also classifies with respective to its weapon classes, including handgun, knife, revolver, and rifle, along with person detection. This research focuses on (You Look Only Once) family and Faster RCNN family for model validation and training. Pruning and Ensembling techniques were applied to YOLOv5 to enhance their speed and performance. models achieve the highest score of 78% with an inference speed of 8.1ms. However, Faster R-CNN models achieve the highest AP 89%.
- Abstract(参考訳): 銃乱射事件や刺殺事件は激しく、重傷を負い、公衆の安全を脅かす。
人間の監督なしに単独の狼の攻撃を防ぐには技術が必要である。
したがって、ディープラーニングを用いた自動兵器検出を設計することは、ニューラルネットワークを用いて兵器オブジェクトをローカライズし、検出する最適化されたソリューションである。
本研究は、兵器の存在を検知するだけでなく、拳銃、ナイフ、リボルバー、ライフルなど、それぞれの武器クラスに分類する、統合型およびII段階の物体検出器と、人体検知の両方に焦点を当てる。
本研究は、モデル検証とトレーニングのための(You Look Only Once)ファミリーとFaster RCNNファミリに焦点を当てる。
Pruning and Ensembling Technique は YOLOv5 に応用され、その速度と性能が向上した。
推定速度は8.1msで 最高スコアは78%。
しかし、より高速なR-CNNモデルはAP 89%を達成している。
関連論文リスト
- Undermining Image and Text Classification Algorithms Using Adversarial Attacks [0.0]
本研究は,各種機械学習モデルを訓練し,GANとSMOTEを用いてテキスト分類モデルへの攻撃を目的とした追加データポイントを生成することにより,そのギャップを解消する。
実験の結果,分類モデルの重大な脆弱性が明らかとなった。特に,攻撃後の最上位のテキスト分類モデルの精度が20%低下し,顔認識精度が30%低下した。
論文 参考訳(メタデータ) (2024-11-03T18:44:28Z) - Real-Time Weapon Detection Using YOLOv8 for Enhanced Safety [0.0]
このモデルは、様々な種類の銃器とエッジ武器を描いた何千もの画像を含む包括的なデータセットで訓練された。
精度,リコール,F1スコア,平均平均平均精度(mAP)を複数のIoU閾値で比較し,モデルの性能評価を行った。
論文 参考訳(メタデータ) (2024-10-23T10:35:51Z) - Distributed Intelligent Video Surveillance for Early Armed Robbery Detection based on Deep Learning [0.0]
ラテンアメリカでの低い雇用率が犯罪の顕著な増加に寄与し、新たな犯罪戦術が出現した。
近年の研究では、兵器検知器を監視カメラに埋め込むことによって、この問題にアプローチしている。
これらのシステムは、イベントを確認できない場合、偽陽性になりがちである。
コンピュータビジョンパイプラインとオブジェクト検出機能を複数のデバイスに統合する分散IoTシステムを提案する。
論文 参考訳(メタデータ) (2024-10-13T05:20:35Z) - Unlearn and Burn: Adversarial Machine Unlearning Requests Destroy Model Accuracy [65.80757820884476]
未学習システムのデプロイにおいて、重要で未調査の脆弱性を公開しています。
本稿では,訓練セットに存在しないデータに対して,逆学習要求を送信することにより,攻撃者がモデル精度を劣化させることができる脅威モデルを提案する。
我々は、未学習要求の正当性を検出するための様々な検証メカニズムを評価し、検証の課題を明らかにする。
論文 参考訳(メタデータ) (2024-10-12T16:47:04Z) - SOAR: Self-supervision Optimized UAV Action Recognition with Efficient Object-Aware Pretraining [65.9024395309316]
無人航空機(UAV)が捉えた航空映像の自己監督型事前学習アルゴリズムについて紹介する。
我々は,UAVビデオの事前学習効率と下流行動認識性能を向上させるために,事前学習プロセスを通じて人体知識を取り入れた。
論文 参考訳(メタデータ) (2024-09-26T21:15:22Z) - Isolation and Induction: Training Robust Deep Neural Networks against
Model Stealing Attacks [51.51023951695014]
既存のモデル盗難防衛は、被害者の後部確率に偽りの摂動を加え、攻撃者を誤解させる。
本稿では,モデルステルス防衛のための新規かつ効果的なトレーニングフレームワークである分離誘導(InI)を提案する。
モデルの精度を損なうモデル予測に摂動を加えるのとは対照的に、我々はモデルを訓練して、盗むクエリに対して非形式的なアウトプットを生成する。
論文 参考訳(メタデータ) (2023-08-02T05:54:01Z) - Publishing Efficient On-device Models Increases Adversarial
Vulnerability [58.6975494957865]
本稿では,大規模モデルのオンデバイス版を公開する際のセキュリティ上の考慮事項について検討する。
まず、敵がデバイス上のモデルを悪用し、大きなモデルを攻撃しやすくすることを示す。
次に、フルスケールと効率的なモデルとの類似性が増加するにつれて、脆弱性が増加することを示す。
論文 参考訳(メタデータ) (2022-12-28T05:05:58Z) - AccelAT: A Framework for Accelerating the Adversarial Training of Deep
Neural Networks through Accuracy Gradient [12.118084418840152]
アドリヤトレーニングを利用して、悪意のある変更データに対する堅牢なディープニューラルネットワーク(DNN)モデルを開発する。
本研究の目的は、敵の攻撃に対して堅牢なDNNモデルの迅速な開発を可能にするために、敵の訓練を加速することである。
論文 参考訳(メタデータ) (2022-10-13T10:31:51Z) - Illusory Attacks: Information-Theoretic Detectability Matters in Adversarial Attacks [76.35478518372692]
エプシロン・イリューソリー(epsilon-illusory)は、シーケンシャルな意思決定者に対する敵対的攻撃の新たな形態である。
既存の攻撃と比較して,エプシロン・イリューソリーの自動検出は極めて困難である。
以上の結果から, より優れた異常検知器, 効果的なハードウェアおよびシステムレベルの防御の必要性が示唆された。
論文 参考訳(メタデータ) (2022-07-20T19:49:09Z) - Robust Adversarial Attacks Detection based on Explainable Deep
Reinforcement Learning For UAV Guidance and Planning [4.640835690336653]
公の場で活動する無人航空機(UAV)エージェントに対する敵攻撃が増加している。
深層学習(DL)アプローチによるこれらのUAVの制御と誘導は、パフォーマンスの観点からは有益であるが、これらのテクニックの安全性と敵の攻撃に対する脆弱性に対する懸念を追加する可能性がある。
本稿では、これらのDLスキームとUAVを攻撃から保護する効率的な検出器を構築するためのDL法の説明可能性に基づく革新的なアプローチを提案する。
論文 参考訳(メタデータ) (2022-06-06T15:16:10Z) - Automating Privilege Escalation with Deep Reinforcement Learning [71.87228372303453]
本研究では,エージェントの訓練に深層強化学習を用いることで,悪意あるアクターの潜在的な脅威を実証する。
本稿では,最先端の強化学習アルゴリズムを用いて,局所的な特権エスカレーションを行うエージェントを提案する。
我々のエージェントは、実際の攻撃センサーデータを生成し、侵入検知システムの訓練と評価に利用できる。
論文 参考訳(メタデータ) (2021-10-04T12:20:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。