論文の概要: Detecting Violence in Video Based on Deep Features Fusion Technique
- arxiv url: http://arxiv.org/abs/2204.07443v1
- Date: Fri, 15 Apr 2022 12:51:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-18 16:21:22.588443
- Title: Detecting Violence in Video Based on Deep Features Fusion Technique
- Title(参考訳): deep features fusion法によるビデオ中の暴力の検出
- Authors: Heyam M. Bin Jahlan and Lamiaa A. Elrefaei
- Abstract要約: 本研究では、2つの畳み込みニューラルネットワーク(CNN)の融合技術を用いて暴力を検出する新しい方法を提案する。
提案手法の性能は,検出精度の観点から3つの標準ベンチマークデータセットを用いて評価した。
- 参考スコア(独自算出の注目度): 0.30458514384586394
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With the rapid growth of surveillance cameras in many public places to
mon-itor human activities such as in malls, streets, schools and, prisons,
there is a strong demand for such systems to detect violence events
automatically. Au-tomatic analysis of video to detect violence is significant
for law enforce-ment. Moreover, it helps to avoid any social, economic and
environmental damages. Mostly, all systems today require manual human
supervisors to de-tect violence scenes in the video which is inefficient and
inaccurate. in this work, we interest in physical violence that involved two
persons or more. This work proposed a novel method to detect violence using a
fusion tech-nique of two significantly different convolutional neural networks
(CNNs) which are AlexNet and SqueezeNet networks. Each network followed by
separate Convolution Long Short Term memory (ConvLSTM) to extract ro-bust and
richer features from a video in the final hidden state. Then, making a fusion
of these two obtained states and fed to the max-pooling layer. Final-ly,
features were classified using a series of fully connected layers and soft-max
classifier. The performance of the proposed method is evaluated using three
standard benchmark datasets in terms of detection accuracy: Hockey Fight
dataset, Movie dataset and Violent Flow dataset. The results show an accuracy
of 97%, 100%, and 96% respectively. A comparison of the results with the state
of the art techniques revealed the promising capability of the proposed method
in recognizing violent videos.
- Abstract(参考訳): 多くの公共の場所で監視カメラが急速に成長し、モール、通り、学校、刑務所などの単身の人間活動に繋がるようになり、暴力事件を自動的に検知するシステムが求められている。
暴力を検知するビデオのau-tomatic analysisは法執行に重要である。
さらに、社会的、経済的、環境的な損害を回避できる。
現在、すべてのシステムは、非効率で不正確なビデオの暴力シーンを検知するために、人手による監督を必要とする。
この作品では、私たちは2人以上を巻き込んだ身体的な暴力に関心があります。
本研究は,alexnet と squeezenet の2つの異なる畳み込みニューラルネットワーク (cnns) の融合技術を用いて,暴力を検出する新しい手法を提案する。
それぞれのネットワークはコンボリューションロング短期メモリ(ConvLSTM)を分離し、最後に隠された状態でビデオからロバストでリッチな特徴を抽出する。
そして、これら2つの状態の融合を行い、最大プーリング層に供給した。
最後に,完全連結層とソフトマックス分類器を用いて特徴を分類した。
提案手法の性能は, ホッケーファイトデータセット, 映画データセット, 暴力フローデータセットの3つの標準ベンチマークデータセットを用いて評価した。
その結果,それぞれ97%,100%,96%の精度を示した。
その結果, 暴力的映像の認識において, 提案手法の有望性を示した。
関連論文リスト
- Optimizing Violence Detection in Video Classification Accuracy through 3D Convolutional Neural Networks [0.0]
本研究は、暴力検出モデルの精度を最適化するために、一度に何つのフレームを分析すべきかを特定することである。
以前の暴力分類モデルが作成されているが、ライブ映像への応用には欠陥がある可能性がある。
最も高い検証精度は94.87%であり、同時に3つのフレームを分析したモデルで発生した。
論文 参考訳(メタデータ) (2024-11-02T19:29:01Z) - Violence detection in videos using deep recurrent and convolutional neural networks [0.0]
繰り返しニューラルネットワーク(RNN)と2次元畳み込みニューラルネットワーク(2D CNN)を組み合わせた暴力検出のためのディープラーニングアーキテクチャを提案する。
ビデオフレームに加えて、キャプチャーシーケンスを用いて計算した光フローを用いる。
提案手法は最先端技術と同じレベルに達し,時折それらを上回るものとなる。
論文 参考訳(メタデータ) (2024-09-11T19:21:51Z) - CCTV-Gun: Benchmarking Handgun Detection in CCTV Images [59.24281591714385]
銃の暴力は重要なセキュリティ問題であり、コンピュータビジョンコミュニティが効果的な銃検出アルゴリズムを開発することが必須である。
実際のCCTV画像から銃を検出することは、未だに困難で未調査の課題である。
我々は,実世界のCCTV画像における拳銃検出の課題に対処するベンチマーク「textbfCCTV-Gun」を提案する。
論文 参考訳(メタデータ) (2023-03-19T16:17:35Z) - TempNet: Temporal Attention Towards the Detection of Animal Behaviour in
Videos [63.85815474157357]
本稿では,映像中の生物学的行動を検出するための,効率的なコンピュータビジョンと深層学習に基づく手法を提案する。
TempNetはエンコーダブリッジと残留ブロックを使用して、2段階の空間的、そして時間的、エンコーダでモデル性能を維持する。
本研究では,サブルフィッシュ (Anoplopoma fimbria) 幼虫の検出への応用を実証する。
論文 参考訳(メタデータ) (2022-11-17T23:55:12Z) - Two-stream Multi-dimensional Convolutional Network for Real-time
Violence Detection [0.0]
本研究は,2-stream Multi-dimensional Convolutional Network (2s-MDCN) と呼ばれる,暴力検出のための新しいアーキテクチャを提案する。
提案手法は1次元, 2次元, 3次元の畳み込みによって時間的, 空間的情報を独立に抽出する。
我々のモデルは、最大の暴力検出ベンチマークデータセットで89.7%の最先端の精度を得た。
論文 参考訳(メタデータ) (2022-11-08T14:04:47Z) - Video Manipulations Beyond Faces: A Dataset with Human-Machine Analysis [60.13902294276283]
我々は826の動画(413のリアルと413の操作)からなるデータセットであるVideoShamを提示する。
既存のディープフェイクデータセットの多くは、2種類の顔操作にのみ焦点をあてている。
我々の分析によると、最先端の操作検出アルゴリズムはいくつかの特定の攻撃に対してのみ有効であり、VideoShamではうまくスケールしない。
論文 参考訳(メタデータ) (2022-07-26T17:39:04Z) - SSIVD-Net: A Novel Salient Super Image Classification & Detection
Technique for Weaponized Violence [3.651114792588495]
CCTV映像における暴力や武器による暴力の検出には、包括的なアプローチが必要である。
本稿では,emphSmart-City CCTV Violence Detection (SCVD)データセットを紹介する。
我々はemphSSIVD-Net(textbfViolence textbfDetection用textbfSalient-textbfSuper-textbfImage)と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2022-07-26T12:31:01Z) - Real Time Action Recognition from Video Footage [0.5219568203653523]
ビデオ監視カメラは犯罪を検知する新しい次元を追加した。
本研究は、暴力行為を検出するための自律監視のための堅牢なパイプラインを確保するために、最先端のディープラーニング手法を統合することに焦点を当てる。
論文 参考訳(メタデータ) (2021-12-13T07:27:41Z) - Adversarially robust deepfake media detection using fused convolutional
neural network predictions [79.00202519223662]
現在のディープフェイク検出システムは、目に見えないデータと戦っている。
ビデオから抽出した偽画像と実画像の分類には,CNN(Deep Convolutional Neural Network)モデルが3種類採用されている。
提案手法は96.5%の精度で最先端のモデルより優れている。
論文 参考訳(メタデータ) (2021-02-11T11:28:00Z) - Robust Unsupervised Video Anomaly Detection by Multi-Path Frame
Prediction [61.17654438176999]
本稿では,フレーム予測と適切な設計による新規で頑健な非教師付きビデオ異常検出手法を提案する。
提案手法は,CUHK Avenueデータセット上で88.3%のフレームレベルAUROCスコアを得る。
論文 参考訳(メタデータ) (2020-11-05T11:34:12Z) - VideoForensicsHQ: Detecting High-quality Manipulated Face Videos [77.60295082172098]
偽造検知器の性能は、人間の目で見られる人工物の存在にどのように依存するかを示す。
前例のない品質の顔ビデオ偽造検出のための新しいベンチマークデータセットを導入する。
論文 参考訳(メタデータ) (2020-05-20T21:17:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。