論文の概要: Vi-SAFE: A Spatial-Temporal Framework for Efficient Violence Detection in Public Surveillance
- arxiv url: http://arxiv.org/abs/2509.13210v1
- Date: Tue, 16 Sep 2025 16:16:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-17 17:50:53.165366
- Title: Vi-SAFE: A Spatial-Temporal Framework for Efficient Violence Detection in Public Surveillance
- Title(参考訳): Vi-SAFE:公共サーベイランスにおける高能率ウイルス検出のための時空間フレームワーク
- Authors: Ligang Chang, Shengkai Xu, Liangchang Shen, Binhan Xu, Junqiao Wang, Tianyu Shi, Yanhui Du,
- Abstract要約: Vi-SAFEは、拡張されたYOLOv8とテンポラルセグメンツネットワーク(TSN)を統合してビデオ監視を行う空間的時間的フレームワークである。
YOLOv8とTSNは歩行者と暴力のデータセットで個別に訓練され、YOLOv8は人間の領域を抽出し、TSNは暴力行動のバイナリ分類を行う。
Vi-SAFEの精度は0.88で、TSNのみ(0.77)を超え、既存の手法よりも精度と効率が優れている。
- 参考スコア(独自算出の注目度): 3.4867449776674673
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Violence detection in public surveillance is critical for public safety. This study addresses challenges such as small-scale targets, complex environments, and real-time temporal analysis. We propose Vi-SAFE, a spatial-temporal framework that integrates an enhanced YOLOv8 with a Temporal Segment Network (TSN) for video surveillance. The YOLOv8 model is optimized with GhostNetV3 as a lightweight backbone, an exponential moving average (EMA) attention mechanism, and pruning to reduce computational cost while maintaining accuracy. YOLOv8 and TSN are trained separately on pedestrian and violence datasets, where YOLOv8 extracts human regions and TSN performs binary classification of violent behavior. Experiments on the RWF-2000 dataset show that Vi-SAFE achieves an accuracy of 0.88, surpassing TSN alone (0.77) and outperforming existing methods in both accuracy and efficiency, demonstrating its effectiveness for public safety surveillance. Code is available at https://anonymous.4open.science/r/Vi-SAFE-3B42/README.md.
- Abstract(参考訳): 公衆の監視における暴力検出は、公衆の安全のために重要である。
本研究では,小規模目標,複雑な環境,リアルタイム時間解析といった課題に対処する。
映像監視のための時空間セグメンテーションネットワーク(TSN)と拡張YOLOv8を統合した時空間フレームワークであるVi-SAFEを提案する。
YOLOv8モデルは、GhostNetV3を軽量なバックボーンとして、指数移動平均(EMA)アテンション機構として最適化し、精度を維持しながら計算コストを削減する。
YOLOv8とTSNは歩行者と暴力のデータセットで個別に訓練され、YOLOv8は人間の領域を抽出し、TSNは暴力行動のバイナリ分類を行う。
RWF-2000データセットの実験では、Vi-SAFEは精度0.88で、TSNのみ(0.77)を超え、既存の手法を精度と効率の両方で上回り、公共の安全監視に有効であることを実証している。
コードはhttps://anonymous.4open.science/r/Vi-SAFE-3B42/README.mdで公開されている。
関連論文リスト
- A Deep Learning-Based CCTV System for Automatic Smoking Detection in Fire Exit Zones [0.0]
防火エリアのCCTV監視のためのリアルタイム喫煙検知システムを提案する。
データセットには、20のシナリオから8,124の画像と、低照度領域を示す2,708のサンプルが含まれている。
提案されたモデルは他のモデルよりも優れ、78.90%、mAPは83.70パーセントの50パーセントでリコールされた。
論文 参考訳(メタデータ) (2025-08-12T19:27:17Z) - NOVA: Navigation via Object-Centric Visual Autonomy for High-Speed Target Tracking in Unstructured GPS-Denied Environments [56.35569661650558]
我々はNOVAというオブジェクト中心のフレームワークを導入し、ロバストな目標追跡と衝突認識ナビゲーションを可能にした。
グローバルマップを構築するのではなく、NOVAはターゲットの参照フレーム内での知覚、推定、制御を定式化する。
我々は,都市迷路や森林の小道,間欠的なGPS損失を伴う建物内の繰り返し遷移など,現実の挑戦的なシナリオにまたがってNOVAを検証する。
論文 参考訳(メタデータ) (2025-06-23T14:28:30Z) - Performance Evaluation of Deep Learning-based Quadrotor UAV Detection and Tracking Methods [0.0]
無人航空機(UAV)は様々な分野で人気を博し、多くの利点を提供しているが、プライバシーと安全性に重大な課題をもたらす。
本稿では,これらの問題に対処する四極子UAVの検出と追跡のための最先端のソリューションについて検討する。
切削エッジディープラーニングモデル、特にYOLOv5とYOLOv8シリーズは、UAVを正確かつ迅速に識別する性能で評価されている。
論文 参考訳(メタデータ) (2024-09-30T23:37:02Z) - CUE-Net: Violence Detection Video Analytics with Spatial Cropping, Enhanced UniformerV2 and Modified Efficient Additive Attention [21.354382437543315]
本稿では,ビデオ監視における暴力自動検出のための新しいアーキテクチャであるCUE-Netを紹介する。
CUE-Netはローカルとグローバル両方の時間的特徴に着目し、RWF-2000およびRLVSデータセット上で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-04-27T20:09:40Z) - ADVENT: Attack/Anomaly Detection in VANETs [0.8594140167290099]
本研究では,悪意のある行動をリアルタイムに検出するシステムを提案する。
統計的および機械学習技術をシームレスに統合することにより、提案システムは単純さと効率性を優先する。
F1スコアの99.66%で高速に攻撃を検知し、その後、平均で97.85%の悪意のある車両を識別する。
論文 参考訳(メタデータ) (2024-01-16T18:49:08Z) - Two-Stage Violence Detection Using ViTPose and Classification Models at
Smart Airports [9.53984191161849]
本研究では、スマート空港のユニークな要件に合わせて、革新的な暴力検出フレームワークを導入する。
このフレームワークは人間のポーズ推定にViTPoseの力を利用する。
実際のシナリオで堅牢なパフォーマンスを保証するため、ソリューションは統合テストが行われた。
論文 参考訳(メタデータ) (2023-08-30T21:20:15Z) - DADFNet: Dual Attention and Dual Frequency-Guided Dehazing Network for
Video-Empowered Intelligent Transportation [79.18450119567315]
逆の気象条件は、ビデオベースの交通監視に深刻な課題をもたらす。
本稿では,リアルタイム視認性向上のための2つの注意と2つの周波数誘導型脱ハージングネットワーク(DADFNet)を提案する。
論文 参考訳(メタデータ) (2023-04-19T11:55:30Z) - Higher Performance Visual Tracking with Dual-Modal Localization [106.91097443275035]
Visual Object Tracking (VOT)は、堅牢性と正確性の両方に同期性を必要とする。
ONRによるロバストなローカリゼーション抑制器とOFCによるターゲットセンターへの正確なローカリゼーションにより、ターゲットローカリゼーションのためのデュアルモーダルフレームワークを提案します。
論文 参考訳(メタデータ) (2021-03-18T08:47:56Z) - Defending Water Treatment Networks: Exploiting Spatio-temporal Effects
for Cyber Attack Detection [46.67179436529369]
水処理ネットワーク(WTN)は地域社会と公衆衛生にとって重要なインフラであり、WTNはサイバー攻撃に弱い。
WTNにおけるサイバー攻撃の時間的特性をモデル化し,WTNを防御する構造的異常検出フレームワークを提案する。
論文 参考訳(メタデータ) (2020-08-26T15:56:55Z) - Cascaded Regression Tracking: Towards Online Hard Distractor
Discrimination [202.2562153608092]
本稿では,2段階の逐次回帰トラッカーを提案する。
第1段階では, 容易に同定可能な負の候補を抽出する。
第2段階では、残留するあいまいな硬質試料をダブルチェックするために、離散サンプリングに基づくリッジ回帰を設計する。
論文 参考訳(メタデータ) (2020-06-18T07:48:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。