論文の概要: LGN-Net: Local-Global Normality Network for Video Anomaly Detection
- arxiv url: http://arxiv.org/abs/2211.07454v1
- Date: Mon, 14 Nov 2022 15:32:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-15 18:41:06.488092
- Title: LGN-Net: Local-Global Normality Network for Video Anomaly Detection
- Title(参考訳): LGN-Net:ビデオ異常検出のための局所グローバル正規化ネットワーク
- Authors: Mengyang Zhao, Yang Liu, Jing Liu, Di Li, Xinhua Zeng
- Abstract要約: ビデオ検出(VAD)は、監視されていないインテリジェントなビデオシステムにおいて、その潜在的な応用について、長年にわたって集中的に研究されてきた。
既存のVAD手法は、通常のビデオのみからなるトレーニングセットから正規性を学ぶ傾向がある。
本稿では,局所正規度とグローバル正規度を同時に学習する2分岐モデル(LG-Net)を提案する。
- 参考スコア(独自算出の注目度): 9.578697308678153
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Video anomaly detection (VAD) has been intensively studied for years because
of its potential applications in intelligent video systems. Existing
unsupervised VAD methods tend to learn normality from training sets consisting
of only normal videos and regard instances deviating from such normality as
anomalies. However, they often consider only local or global normality. Some of
them focus on learning local spatiotemporal representations from consecutive
frames in video clips to enhance the representation for normal events. But
powerful representation allows these methods to represent some anomalies and
causes missed detections. In contrast, the other methods are devoted to
memorizing global prototypical patterns of whole training videos to weaken the
generalization for anomalies, which also restricts them to represent diverse
normal patterns and causes false alarms. To this end, we propose a two-branch
model, Local-Global Normality Network (LGN-Net), to learn local and global
normality simultaneously. Specifically, one branch learns the evolution
regularities of appearance and motion from consecutive frames as local
normality utilizing a spatiotemporal prediction network, while the other branch
memorizes prototype features of the whole videos as global normality by a
memory module. LGN-Net achieves a balance of representing normal and abnormal
instances by fusing local and global normality. The fused normality enables our
model more generalized to various scenes compared to exploiting single
normality. Experiments demonstrate the effectiveness and superior performance
of our method. The code is available online:
https://github.com/Myzhao1999/LGN-Net.
- Abstract(参考訳): ビデオ異常検出(VAD)は、インテリジェントビデオシステムに応用される可能性があるため、長年にわたって研究されてきた。
既存の教師なしvad法は、通常のビデオのみからなるトレーニングセットから正規性を学び、そのような正規性から逸脱したインスタンスを異常と見なす傾向がある。
しかし、彼らはしばしば局所的あるいはグローバルな正規性のみを考慮する。
それらの一部は、ビデオクリップの連続フレームから局所的な時空間表現を学習し、通常のイベントの表現を強化することに重点を置いている。
しかし、強力な表現により、これらのメソッドはいくつかの異常を表現でき、検出に失敗する。
対照的に、他の手法は、トレーニングビデオ全体のグローバルな原型パターンを記憶し、異常の一般化を弱め、多様な正常なパターンを表現し、誤報を引き起こすことを制限している。
そこで本研究では,局所正規化とグローバル正規化を同時に学習する2分岐モデルLGN-Netを提案する。
具体的には、時空間予測ネットワークを用いた局所正規性として連続フレームからの出現と動きの進化正規性を学び、一方のブランチは、全ビデオのプロトタイプ特徴をメモリモジュールによるグローバル正規性として記憶する。
LGN-Netは、局所的および大域的正規性を融合させることで、正常および異常なインスタンスを表すバランスを達成する。
融合正規性により,単一正規性を利用する場合に比べて,モデルが様々な場面に一般化される。
本手法の有効性と優れた性能を示す実験を行った。
コードはhttps://github.com/myzhao1999/lgn-net。
関連論文リスト
- Weakly Supervised Video Anomaly Detection and Localization with Spatio-Temporal Prompts [57.01985221057047]
本稿では、事前学習された視覚言語モデル(VLM)に基づく、弱教師付きビデオ異常検出および局所化のための時間的プロンプト埋め込み(WSVADL)を学習する新しい手法を提案する。
提案手法は,WSVADLタスクの3つの公開ベンチマークにおける最先端性能を実現する。
論文 参考訳(メタデータ) (2024-08-12T03:31:29Z) - GLAD: Towards Better Reconstruction with Global and Local Adaptive Diffusion Models for Unsupervised Anomaly Detection [60.78684630040313]
拡散モデルは、特定のノイズを付加したテスト画像の通常の画像を再構成する傾向がある。
世界的視点から見ると、異なる異常による画像再構成の難しさは不均一である。
本稿では,非教師付き異常検出のためのグローバルかつ局所的な適応拡散モデル(GLADと略す)を提案する。
論文 参考訳(メタデータ) (2024-06-11T17:27:23Z) - Dynamic Erasing Network Based on Multi-Scale Temporal Features for
Weakly Supervised Video Anomaly Detection [103.92970668001277]
弱教師付きビデオ異常検出のための動的消去ネットワーク(DE-Net)を提案する。
まず,異なる長さのセグメントから特徴を抽出できるマルチスケール時間モデリングモジュールを提案する。
そして,検出された異常の完全性を動的に評価する動的消去戦略を設計する。
論文 参考訳(メタデータ) (2023-12-04T09:40:11Z) - Dual Memory Units with Uncertainty Regulation for Weakly Supervised
Video Anomaly Detection [15.991784541576788]
ビデオとセグメントレベルのラベル指向の既存のアプローチは、主に異常データの表現の抽出に重点を置いている。
本研究では、正規データの表現と異常データの識別特徴の両方を学習するために、不確実性制御デュアルメモリユニット(UR-DMU)モデルを提案する。
我々の手法は、最先端の手法よりも大きなマージンで優れている。
論文 参考訳(メタデータ) (2023-02-10T10:39:40Z) - Rethinking Normalization Methods in Federated Learning [92.25845185724424]
フェデレートラーニング(FL)は、プライベートデータを明示的に共有しないことでプライバシーリスクを低減できる人気のある分散ラーニングフレームワークである。
我々は、外部共変量シフトが、世界モデルに対する一部のデバイスからの貢献の消滅につながることを示した。
論文 参考訳(メタデータ) (2022-10-07T01:32:24Z) - Anomaly Crossing: A New Method for Video Anomaly Detection as
Cross-domain Few-shot Learning [32.0713939637202]
ビデオ異常検出は、ビデオで発生した異常事象を特定することを目的としている。
従来のアプローチのほとんどは、教師なしまたは半教師なしの手法で通常のビデオからのみ学習する。
本稿では,ビデオの異常検出に通常のビデオと異常ビデオの両方をフル活用することで,新たな学習パラダイムを提案する。
論文 参考訳(メタデータ) (2021-12-12T20:49:38Z) - UBnormal: New Benchmark for Supervised Open-Set Video Anomaly Detection [103.06327681038304]
本稿では,複数の仮想シーンで構成された教師付きオープンセット・ベンチマークを提案する。
既存のデータセットとは異なり、トレーニング時に画素レベルでアノテートされた異常事象を導入する。
UBnormalは最先端の異常検出フレームワークの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2021-11-16T17:28:46Z) - Sensing Anomalies like Humans: A Hominine Framework to Detect Abnormal
Events from Unlabeled Videos [48.15740415466055]
ビデオ異常検出(VAD)は、ビデオ分析において常に重要なトピックである。
我々は、人間が異常を感知する方法にインスパイアされ、教師なしとエンドツーエンドの両方のVADを可能にするホミニンフレームワークを提案する。
論文 参考訳(メタデータ) (2021-08-04T11:31:57Z) - Weakly Supervised Video Anomaly Detection via Center-guided
Discriminative Learning [25.787860059872106]
監視ビデオの異常検出は、異常なビデオコンテンツと持続時間の多様性のために難しい作業です。
本稿では,トレーニング段階でビデオレベルラベルのみを必要とする異常回帰ネット(ar-net)と呼ばれる異常検出フレームワークを提案する。
本手法は,上海テクデータセットにおける映像異常検出に新たな最先端結果を与える。
論文 参考訳(メタデータ) (2021-04-15T06:41:23Z) - Unsupervised Video Anomaly Detection via Normalizing Flows with Implicit
Latent Features [8.407188666535506]
既存のほとんどのメソッドはオートエンコーダを使用して、通常のビデオの再構築を学ぶ。
本稿では2つのエンコーダが暗黙的に外観と動きの特徴をモデル化する構造である暗黙の2経路AE(ITAE)を提案する。
通常のシーンの複雑な分布については,ITAE特徴量の正規密度推定を提案する。
NFモデルは暗黙的に学習された機能を通じて正常性を学ぶことでITAEのパフォーマンスを高める。
論文 参考訳(メタデータ) (2020-10-15T05:02:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。