論文の概要: Real Time Action Recognition from Video Footage
- arxiv url: http://arxiv.org/abs/2112.06456v1
- Date: Mon, 13 Dec 2021 07:27:41 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-14 17:27:15.417817
- Title: Real Time Action Recognition from Video Footage
- Title(参考訳): 映像映像からのリアルタイム行動認識
- Authors: Tasnim Sakib Apon, Mushfiqul Islam Chowdhury, MD Zubair Reza, Arpita
Datta, Syeda Tanjina Hasan, MD. Golam Rabiul Alam
- Abstract要約: ビデオ監視カメラは犯罪を検知する新しい次元を追加した。
本研究は、暴力行為を検出するための自律監視のための堅牢なパイプラインを確保するために、最先端のディープラーニング手法を統合することに焦点を当てる。
- 参考スコア(独自算出の注目度): 0.5219568203653523
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Crime rate is increasing proportionally with the increasing rate of the
population. The most prominent approach was to introduce Closed-Circuit
Television (CCTV) camera-based surveillance to tackle the issue. Video
surveillance cameras have added a new dimension to detect crime. Several
research works on autonomous security camera surveillance are currently
ongoing, where the fundamental goal is to discover violent activity from video
feeds. From the technical viewpoint, this is a challenging problem because
analyzing a set of frames, i.e., videos in temporal dimension to detect
violence might need careful machine learning model training to reduce false
results. This research focuses on this problem by integrating state-of-the-art
Deep Learning methods to ensure a robust pipeline for autonomous surveillance
for detecting violent activities, e.g., kicking, punching, and slapping.
Initially, we designed a dataset of this specific interest, which contains 600
videos (200 for each action). Later, we have utilized existing pre-trained
model architectures to extract features, and later used deep learning network
for classification. Also, We have classified our models' accuracy, and
confusion matrix on different pre-trained architectures like VGG16,
InceptionV3, ResNet50, Xception and MobileNet V2 among which VGG16 and
MobileNet V2 performed better.
- Abstract(参考訳): 犯罪率は人口の増加と比例して増加している。
最も顕著なアプローチは、この問題に取り組むために、CCTV(Closed-Circuit Television)カメラベースの監視を導入することだった。
ビデオ監視カメラは犯罪を検知する新しい次元を追加した。
自律的セキュリティカメラの監視に関するいくつかの研究が進行中であり、基本的な目標はビデオフィードから暴力行為を発見することである。
技術的な見地からすると、暴力を検出するために時間軸の動画を分析するには、誤った結果を減らすために注意深い機械学習モデルトレーニングが必要になるため、これは難しい問題である。
本研究は、最先端のディープラーニング手法を統合して、自律監視のための堅牢なパイプラインを確保し、例えば蹴り、パンチ、スラッピングなどの暴力行為を検出することに焦点を当てる。
最初は、600本のビデオ(アクション毎に200本)を含む、この特定の関心事のデータセットを設計しました。
その後,既存の事前学習モデルアーキテクチャを用いて特徴抽出を行い,分類にディープラーニングネットワークを用いた。
また,vgg16,inceptionv3,resnet50,xception,mobilenet v2など,vgg16とmobilenet v2のパフォーマンスが向上したさまざまな事前学習済みアーキテクチャ上で,モデルの精度と混乱行列を分類した。
関連論文リスト
- JOSENet: A Joint Stream Embedding Network for Violence Detection in Surveillance Videos [4.94659999696881]
監視ビデオにおける暴力検出は、様々な実戦シーンのような追加の問題を提示する。
本稿では、監視ビデオにおける暴力検出に優れたパフォーマンスを提供する自己監視フレームワークJOSENetを紹介する。
論文 参考訳(メタデータ) (2024-05-05T15:01:00Z) - CCTV-Gun: Benchmarking Handgun Detection in CCTV Images [59.24281591714385]
銃の暴力は重要なセキュリティ問題であり、コンピュータビジョンコミュニティが効果的な銃検出アルゴリズムを開発することが必須である。
実際のCCTV画像から銃を検出することは、未だに困難で未調査の課題である。
我々は,実世界のCCTV画像における拳銃検出の課題に対処するベンチマーク「textbfCCTV-Gun」を提案する。
論文 参考訳(メタデータ) (2023-03-19T16:17:35Z) - Analysis of Real-Time Hostile Activitiy Detection from Spatiotemporal
Features Using Time Distributed Deep CNNs, RNNs and Attention-Based
Mechanisms [0.0]
CCTVカメラシステムによるリアルタイムビデオ監視は、公共の安全を確保するために欠かせないものとなっている。
ディープラーニングビデオ分類技術は、監視システムを自動化して暴力を検知するのに役立ちます。
論文 参考訳(メタデータ) (2023-02-21T22:02:39Z) - Two-stream Multi-dimensional Convolutional Network for Real-time
Violence Detection [0.0]
本研究は,2-stream Multi-dimensional Convolutional Network (2s-MDCN) と呼ばれる,暴力検出のための新しいアーキテクチャを提案する。
提案手法は1次元, 2次元, 3次元の畳み込みによって時間的, 空間的情報を独立に抽出する。
我々のモデルは、最大の暴力検出ベンチマークデータセットで89.7%の最先端の精度を得た。
論文 参考訳(メタデータ) (2022-11-08T14:04:47Z) - Detecting Violence in Video Based on Deep Features Fusion Technique [0.30458514384586394]
本研究では、2つの畳み込みニューラルネットワーク(CNN)の融合技術を用いて暴力を検出する新しい方法を提案する。
提案手法の性能は,検出精度の観点から3つの標準ベンチマークデータセットを用いて評価した。
論文 参考訳(メタデータ) (2022-04-15T12:51:20Z) - E^2TAD: An Energy-Efficient Tracking-based Action Detector [78.90585878925545]
本稿では,事前定義されたキーアクションを高精度かつ効率的にローカライズするためのトラッキングベースソリューションを提案する。
UAV-Video Track of 2021 Low-Power Computer Vision Challenge (LPCVC)で優勝した。
論文 参考訳(メタデータ) (2022-04-09T07:52:11Z) - Video Salient Object Detection via Contrastive Features and Attention
Modules [106.33219760012048]
本稿では,注目モジュールを持つネットワークを用いて,映像の有意な物体検出のためのコントラスト特徴を学習する。
コアテンションの定式化は、低レベル特徴と高レベル特徴を組み合わせるために用いられる。
提案手法は計算量が少なく,最先端の手法に対して良好に動作することを示す。
論文 参考訳(メタデータ) (2021-11-03T17:40:32Z) - Few-Shot Learning for Video Object Detection in a Transfer-Learning
Scheme [70.45901040613015]
ビデオ物体検出のための数発学習の新たな課題について検討する。
我々は,多数のベースクラスオブジェクトに対して映像物体検出を効果的に訓練するトランスファー学習フレームワークと,ノベルクラスオブジェクトのいくつかのビデオクリップを用いる。
論文 参考訳(メタデータ) (2021-03-26T20:37:55Z) - Anomaly Recognition from surveillance videos using 3D Convolutional
Neural Networks [0.0]
異常なアクティビティ認識は、通常のストリームから変化するパターンやイベントを識別する。
この研究は、中央フロリダ大学犯罪ビデオデータセットに基づいて訓練された深部3次元畳み込みネットワーク(3D ConvNets)を用いて、特徴の学習にシンプルで効果的なアプローチを提供する。
論文 参考訳(メタデータ) (2021-01-04T16:32:48Z) - Anomaly Detection in Video via Self-Supervised and Multi-Task Learning [113.81927544121625]
ビデオにおける異常検出は、コンピュータビジョンの問題である。
本稿では,オブジェクトレベルでの自己教師型およびマルチタスク学習を通じて,ビデオ中の異常事象検出にアプローチする。
論文 参考訳(メタデータ) (2020-11-15T10:21:28Z) - Robust Unsupervised Video Anomaly Detection by Multi-Path Frame
Prediction [61.17654438176999]
本稿では,フレーム予測と適切な設計による新規で頑健な非教師付きビデオ異常検出手法を提案する。
提案手法は,CUHK Avenueデータセット上で88.3%のフレームレベルAUROCスコアを得る。
論文 参考訳(メタデータ) (2020-11-05T11:34:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。