論文の概要: A Deep Learning Approach to Video Anomaly Detection using Convolutional
Autoencoders
- arxiv url: http://arxiv.org/abs/2311.04351v1
- Date: Tue, 7 Nov 2023 21:23:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-09 17:43:21.491366
- Title: A Deep Learning Approach to Video Anomaly Detection using Convolutional
Autoencoders
- Title(参考訳): 畳み込みオートエンコーダを用いたビデオ異常検出のための深層学習手法
- Authors: Gopikrishna Pavuluri, Gayathri Annem
- Abstract要約: 提案手法は、畳み込みオートエンコーダを用いて、通常のビデオのパターンを学習し、テストビデオの各フレームをこの学習表現と比較する。
我々は我々のアプローチを評価し、Ped1データセットで99.35%、Ped2データセットで97%の精度を達成した。
その結果,本手法は他の最先端手法よりも優れており,実世界のビデオ異常検出に利用することができることがわかった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this research we propose a deep learning approach for detecting anomalies
in videos using convolutional autoencoder and decoder neural networks on the
UCSD dataset.Our method utilizes a convolutional autoencoder to learn the
spatiotemporal patterns of normal videos and then compares each frame of a test
video to this learned representation. We evaluated our approach on the UCSD
dataset and achieved an overall accuracy of 99.35% on the Ped1 dataset and
99.77% on the Ped2 dataset, demonstrating the effectiveness of our method for
detecting anomalies in surveillance videos. The results show that our method
outperforms other state-of-the-art methods, and it can be used in real-world
applications for video anomaly detection.
- Abstract(参考訳): 本研究では,ucsdデータセット上の畳み込みオートエンコーダとデコーダニューラルネットワークを用いて,映像中の異常を検出するディープラーニング手法を提案する。この手法は畳み込みオートエンコーダを用いて,通常の映像の時空間パターンを学習し,テスト映像の各フレームをこの学習表現と比較する。
ucsdデータセットに対するアプローチを評価し、ped1データセットでは99.35%、ped2データセットでは99.77%の全体的な精度を達成し、監視ビデオにおける異常検出手法の有効性を実証した。
その結果,本手法は他の最先端手法よりも優れており,実世界の映像異常検出に使用できることがわかった。
関連論文リスト
- Self-Distilled Masked Auto-Encoders are Efficient Video Anomaly
Detectors [117.61449210940955]
ビデオフレームレベルで適用された軽量マスク付きオートエンコーダ(AE)に基づく効率的な異常事象検出モデルを提案する。
動き勾配に基づく重みトークンへのアプローチを導入し、静的背景シーンから前景オブジェクトへ焦点を移す。
トレーニングビデオの強化のために合成異常事象を生成し,マスク付きAEモデルを用いてオリジナルのフレームを共同で再構築する。
論文 参考訳(メタデータ) (2023-06-21T06:18:05Z) - Mitigating Representation Bias in Action Recognition: Algorithms and
Benchmarks [76.35271072704384]
ディープラーニングモデルは、稀なシーンやオブジェクトを持つビデオに適用すると、パフォーマンスが悪くなります。
この問題にはアルゴリズムとデータセットの2つの異なる角度から対処する。
偏りのある表現は、他のデータセットやタスクに転送するとより一般化できることを示す。
論文 参考訳(メタデータ) (2022-09-20T00:30:35Z) - Differentiable Frequency-based Disentanglement for Aerial Video Action
Recognition [56.91538445510214]
ビデオにおける人間の行動認識のための学習アルゴリズムを提案する。
我々のアプローチは、主に斜めに配置されたダイナミックカメラから取得されるUAVビデオのために設計されている。
我々はUAV HumanデータセットとNEC Droneデータセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2022-09-15T22:16:52Z) - Abnormal Event Detection in Urban Surveillance Videos Using GAN and
Transfer Learning [5.092028049119383]
都市監視ビデオにおける異常事象検出(AED)には複数の課題がある。
本稿では、GANCSDを用いて、事前訓練された畳み込みニューラルネットワーク(CNN)上で転送学習アルゴリズムを実行する。
実験結果から,提案手法は群集シーンにおける異常事象を効果的に検出・検出できることが示唆された。
論文 参考訳(メタデータ) (2020-11-19T02:39:35Z) - Robust Unsupervised Video Anomaly Detection by Multi-Path Frame
Prediction [61.17654438176999]
本稿では,フレーム予測と適切な設計による新規で頑健な非教師付きビデオ異常検出手法を提案する。
提案手法は,CUHK Avenueデータセット上で88.3%のフレームレベルAUROCスコアを得る。
論文 参考訳(メタデータ) (2020-11-05T11:34:12Z) - Video Anomaly Detection Using Pre-Trained Deep Convolutional Neural Nets
and Context Mining [2.0646127669654835]
本稿では,事前学習した畳み込みニューラルネットモデルを用いて特徴抽出とコンテキストマイニングを行う方法について述べる。
我々は,高レベルの特徴から文脈特性を導出し,ビデオ異常検出法の性能をさらに向上させる。
論文 参考訳(メタデータ) (2020-10-06T00:26:14Z) - Self-Supervised Representation Learning for Visual Anomaly Detection [9.642625267699488]
本稿では,画像映像における異常検出の問題点を考察し,新しい視覚的異常検出手法を提案する。
光フロー情報を用いることなくビデオフレーム間の時間的コヒーレンスを学習するための,簡単なセルフスーパービジョンアプローチを提案する。
この直感的なアプローチは、UCF101およびILSVRC2015ビデオデータセット上の画像やビデオの多くの方法と比較して、視覚異常検出の優れた性能を示している。
論文 参考訳(メタデータ) (2020-06-17T04:37:29Z) - Detecting Forged Facial Videos using convolutional neural network [0.0]
我々は,より小さな(少ないパラメータで学習する)畳み込みニューラルネットワーク(CNN)を用いて,偽ビデオ検出のためのデータ駆動型アプローチを提案する。
提案手法の有効性を検証するため,FaceForensicsの公開データセットを用いて,フレームベースとビデオベースの両方の結果を詳細に検討した。
論文 参考訳(メタデータ) (2020-05-17T19:04:59Z) - Self-trained Deep Ordinal Regression for End-to-End Video Anomaly
Detection [114.9714355807607]
ビデオ異常検出に自己学習深層順序回帰を適用することで,既存の手法の2つの重要な限界を克服できることを示す。
我々は,手動で正規/異常データをラベル付けすることなく,共同表現学習と異常スコアリングを可能にする,エンドツーエンドのトレーニング可能なビデオ異常検出手法を考案した。
論文 参考訳(メタデータ) (2020-03-15T08:44:55Z) - Emotions Don't Lie: An Audio-Visual Deepfake Detection Method Using
Affective Cues [75.1731999380562]
本稿では,実・偽のディープフェイクマルチメディアコンテンツを検出する学習手法を提案する。
我々は,同じビデオから2つのオーディオと視覚の類似性を抽出し,解析する。
我々は,いくつかのSOTAディープフェイク検出手法との比較を行い,DFDCでは84.4%,DF-TIMITデータセットでは96.6%の動画AUCを報告した。
論文 参考訳(メタデータ) (2020-03-14T22:07:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。