論文の概要: Lightning Fast Video Anomaly Detection via Adversarial Knowledge
Distillation
- arxiv url: http://arxiv.org/abs/2211.15597v1
- Date: Mon, 28 Nov 2022 17:50:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-29 14:28:03.535021
- Title: Lightning Fast Video Anomaly Detection via Adversarial Knowledge
Distillation
- Title(参考訳): 逆向き知識蒸留による雷速映像異常検出
- Authors: Nicolae-Catalin Ristea, Florinel-Alin Croitoru, Dana Dascalescu, Radu
Tudor Ionescu, Fahad Shahbaz Khan, Mubarak Shah
- Abstract要約: 本稿では,ビデオ中の異常検出のための非常に高速なフレームレベルモデルを提案する。
我々は,教師の低分解能な異常マップを,標準および対角蒸留を併用して蒸留する。
提案モデルでは,これまで聞こえなかった1480 FPSの速度のため,速度と精度の最良のトレードオフを実現している。
- 参考スコア(独自算出の注目度): 109.9168326514534
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a very fast frame-level model for anomaly detection in video,
which learns to detect anomalies by distilling knowledge from multiple highly
accurate object-level teacher models. To improve the fidelity of our student,
we distill the low-resolution anomaly maps of the teachers by jointly applying
standard and adversarial distillation, introducing an adversarial discriminator
for each teacher to distinguish between target and generated anomaly maps. We
conduct experiments on three benchmarks (Avenue, ShanghaiTech, UCSD Ped2),
showing that our method is over 7 times faster than the fastest competing
method, and between 28 and 62 times faster than object-centric models, while
obtaining comparable results to recent methods. Our evaluation also indicates
that our model achieves the best trade-off between speed and accuracy, due to
its previously unheard-of speed of 1480 FPS. In addition, we carry out a
comprehensive ablation study to justify our architectural design choices.
- Abstract(参考訳): 本稿では,複数の高精度な対象レベルの教師モデルから知識を抽出し,異常検出を学習する,ビデオ中の異常検出のための非常に高速なフレームレベルモデルを提案する。
学生の忠実度を向上させるために,教師の低分解能な異常マップを,標準と対角蒸留を併用して蒸留し,各教師に対して,目標と生成した異常マップを区別する対角ディミネータを導入する。
我々は,3つのベンチマーク (avenue, shanghaitech, ucsd ped2) について実験を行い,提案手法が最速の競合手法よりも7倍以上高速で,オブジェクト中心モデルよりも28~62倍高速であることを示した。
また,従来の1480fpsの低速化により,速度と精度のトレードオフが最良であることを示す。
さらに、アーキテクチャ設計の選択を正当化するための包括的なアブレーション研究を実施します。
関連論文リスト
- Distilling Temporal Knowledge with Masked Feature Reconstruction for 3D
Object Detection [10.641840385953472]
本稿では,教師検出器から長期記憶を取得するための時間知識ディファイラであるTempDistillerを提案する。
機能教師に適用される自己注意操作を通じて、長期的時間的知識を統合することで、再構築対象を定式化する。
提案手法の有効性を nuScenes ベンチマークで検証する。
論文 参考訳(メタデータ) (2024-01-03T08:23:49Z) - Self-Distilled Masked Auto-Encoders are Efficient Video Anomaly
Detectors [117.61449210940955]
ビデオフレームレベルで適用された軽量マスク付きオートエンコーダ(AE)に基づく効率的な異常事象検出モデルを提案する。
動き勾配に基づく重みトークンへのアプローチを導入し、静的背景シーンから前景オブジェクトへ焦点を移す。
トレーニングビデオの強化のために合成異常事象を生成し,マスク付きAEモデルを用いてオリジナルのフレームを共同で再構築する。
論文 参考訳(メタデータ) (2023-06-21T06:18:05Z) - MixedTeacher : Knowledge Distillation for fast inference textural
anomaly detection [4.243356707599485]
異常検出のための教師なしの学習は 画像処理研究の中心にある
本稿では,知識蒸留の概念に基づく新しい手法を提案する。
提案したテクスチャ異常検出器は,SOTA法と比較して,どのテクスチャの欠陥も検出し,高速な推論時間を有する。
論文 参考訳(メタデータ) (2023-06-16T14:14:20Z) - Anomaly Detection via Multi-Scale Contrasted Memory [3.0170109896527086]
マルチスケールの標準プロトタイプをトレーニング中に記憶し,異常偏差値を計算する2段階の異常検出器を新たに導入する。
CIFAR-10の誤差相対改善率を最大35%とすることにより,多種多様なオブジェクト,スタイル,局所異常に対する最先端性能を高い精度で向上させる。
論文 参考訳(メタデータ) (2022-11-16T16:58:04Z) - SSMTL++: Revisiting Self-Supervised Multi-Task Learning for Video
Anomaly Detection [108.57862846523858]
自己教師型マルチタスク学習フレームワークを再考し、元の手法にいくつかのアップデートを提案する。
マルチヘッド・セルフアテンション・モジュールを導入することで3次元畳み込みバックボーンを近代化する。
モデルをさらに改良するために,セグメントマップの予測などの自己指導型学習タスクについて検討した。
論文 参考訳(メタデータ) (2022-07-16T19:25:41Z) - Anomaly Detection in Video via Self-Supervised and Multi-Task Learning [113.81927544121625]
ビデオにおける異常検出は、コンピュータビジョンの問題である。
本稿では,オブジェクトレベルでの自己教師型およびマルチタスク学習を通じて,ビデオ中の異常事象検出にアプローチする。
論文 参考訳(メタデータ) (2020-11-15T10:21:28Z) - Autoregressive Knowledge Distillation through Imitation Learning [70.12862707908769]
我々は,知識蒸留における模倣学習の観点から駆動される自己回帰モデルに対する圧縮手法を開発した。
本手法は,シーケンスレベルの知識蒸留など,他の蒸留アルゴリズムより一貫して優れている。
また,本手法を訓練した学生は,スクラッチからトレーニングした生徒よりも1.4~4.8BLEU/ROUGEポイント高く,教師モデルと比較して推論速度を最大14倍に向上させた。
論文 参考訳(メタデータ) (2020-09-15T17:43:02Z) - Distilling Object Detectors with Task Adaptive Regularization [97.52935611385179]
現在の最先端のオブジェクト検出器は高い計算コストを犠牲にしており、ローエンドデバイスへのデプロイが困難である。
より大規模な教師モデルから知識を伝達することで、より小さな学生ネットワークを訓練することを目的とした知識蒸留は、モデル小型化のための有望な解決策の1つである。
論文 参考訳(メタデータ) (2020-06-23T15:58:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。