論文の概要: RandomSEMO: Normality Learning Of Moving Objects For Video Anomaly
Detection
- arxiv url: http://arxiv.org/abs/2202.06256v1
- Date: Sun, 13 Feb 2022 08:39:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-15 17:25:55.882987
- Title: RandomSEMO: Normality Learning Of Moving Objects For Video Anomaly
Detection
- Title(参考訳): RandomSEMO:ビデオ異常検出のための移動物体の正規性学習
- Authors: Chaewon Park, Minhyeok Lee, MyeongAh Cho and Sangyoun Lee
- Abstract要約: 移動物体 (RandomSEMO) と移動物体 (MOLoss) におけるランダム・スーパーピクセル消去(Random Superpixel Erasing on moving Objects) という,スーパーピクセルによる動画データ変換手法を提案する。
ランダムSEMOは、その超画素をランダムに消去することにより、移動対象領域に適用する。
MOLossは、移動するオブジェクトの近くのピクセルの損失を増幅することにより、ランダムSEMO内でキャプチャされた通常のオブジェクトの学習に集中するようモデルに促す。
- 参考スコア(独自算出の注目度): 6.895697402893975
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent anomaly detection algorithms have shown powerful performance by
adopting frame predicting autoencoders. However, these methods face two
challenging circumstances. First, they are likely to be trained to be
excessively powerful, generating even abnormal frames well, which leads to
failure in detecting anomalies. Second, they are distracted by the large number
of objects captured in both foreground and background. To solve these problems,
we propose a novel superpixel-based video data transformation technique named
Random Superpixel Erasing on Moving Objects (RandomSEMO) and Moving Object Loss
(MOLoss), built on top of a simple lightweight autoencoder. RandomSEMO is
applied to the moving object regions by randomly erasing their superpixels. It
enforces the network to pay attention to the foreground objects and learn the
normal features more effectively, rather than simply predicting the future
frame. Moreover, MOLoss urges the model to focus on learning normal objects
captured within RandomSEMO by amplifying the loss on the pixels near the moving
objects. The experimental results show that our model outperforms
state-of-the-arts on three benchmarks.
- Abstract(参考訳): 最近の異常検出アルゴリズムはフレーム予測オートエンコーダを採用することで強力な性能を示している。
しかし、これらの手法は2つの困難な状況に直面している。
まず、過度に強力であるように訓練され、異常なフレームも発生し、異常を検出するのに失敗する可能性がある。
第二に、前景と背景の両方で捕獲された大量の物体に邪魔される。
これらの問題を解決するために,シンプルな軽量オートエンコーダ上に構築された移動物体(RandomSEMO)と移動物体損失(MOLoss)のランダム超画素消去法を提案する。
randomsemoは、スーパーピクセルをランダムに消去することで、移動対象領域に適用される。
ネットワークは、単に将来のフレームを予測するのではなく、フォアグラウンドオブジェクトに注意を払い、通常の特徴をより効果的に学習するよう強制する。
さらにMOLossは、移動するオブジェクトの近くのピクセルの損失を増幅することにより、ランダムSEMO内でキャプチャされた通常のオブジェクトの学習に集中するようモデルに促す。
実験結果から,本モデルは3つのベンチマークにおいて最先端のモデルよりも優れていた。
関連論文リスト
- Retrieval Robust to Object Motion Blur [54.34823913494456]
本研究では,動きのぼやけの影響を受けやすい画像のオブジェクト検索手法を提案する。
ぼやけたオブジェクト検索のための最初の大規模データセットを提示する。
提案手法は,新しいぼやけた検索データセット上で,最先端の検索手法より優れている。
論文 参考訳(メタデータ) (2024-04-27T23:22:39Z) - YOLC: You Only Look Clusters for Tiny Object Detection in Aerial Images [33.80392696735718]
YOLC(You Only Look Clusters)は、アンカーフリーなオブジェクト検出器であるCenterNet上に構築された、効率的で効果的なフレームワークである。
大規模画像や非一様オブジェクトの分布がもたらす課題を克服するため,正確な検出のためにクラスタ領域のズームインを適応的に検索するローカルスケールモジュール(LSM)を導入する。
Visdrone 2019 と UAVDT を含む2つの航空画像データセットに対する広範な実験を行い、提案手法の有効性と優位性を実証した。
論文 参考訳(メタデータ) (2024-04-09T10:03:44Z) - Future Video Prediction from a Single Frame for Video Anomaly Detection [0.38073142980732994]
ビデオ異常検出(VAD)はコンピュータビジョンにおいて重要であるが難しい課題である。
本稿では,ビデオ異常検出のための新しいプロキシタスクとして,将来のフレーム予測プロキシタスクを紹介する。
このプロキシタスクは、より長い動きパターンを学習する従来の手法の課題を軽減する。
論文 参考訳(メタデータ) (2023-08-15T14:04:50Z) - DORT: Modeling Dynamic Objects in Recurrent for Multi-Camera 3D Object
Detection and Tracking [67.34803048690428]
本稿では、この問題を解決するためにRecurrenT(DORT)の動的オブジェクトをモデル化することを提案する。
DORTは、重い計算負担を軽減する動き推定のために、オブジェクトワイズローカルボリュームを抽出する。
フレキシブルで実用的で、ほとんどのカメラベースの3Dオブジェクト検出器に差し込むことができる。
論文 参考訳(メタデータ) (2023-03-29T12:33:55Z) - Application Of ADNN For Background Subtraction In Smart Surveillance
System [0.0]
動作検出にADNNアーキテクチャを使用したインテリジェントなビデオ監視システムを開発し,動作のみを含む部分で映像をトリムし,トリミングされた映像に対して異常検出を行う。
論文 参考訳(メタデータ) (2022-12-31T18:42:11Z) - High-resolution Iterative Feedback Network for Camouflaged Object
Detection [128.893782016078]
カモフラージュされたオブジェクトを背景に視覚的に同化させることは、オブジェクト検出アルゴリズムにとって難しい。
エッジやバウンダリのぼやけた視界を生じさせる細部劣化を避けるために,高分解能テクスチャの詳細を抽出することを目的としている。
我々は,高解像度特徴量による低解像度表現を反復的フィードバック方式で洗練する新しいHitNetを提案する。
論文 参考訳(メタデータ) (2022-03-22T11:20:21Z) - Recent Trends in 2D Object Detection and Applications in Video Event
Recognition [0.76146285961466]
物体検出における先駆的な研究について論じるとともに,近年のディープラーニングを活用したブレークスルーも取り上げている。
本稿では、画像とビデオの両方で2次元物体検出のための最近のデータセットを強調し、様々な最先端物体検出技術の比較性能の概要を示す。
論文 参考訳(メタデータ) (2022-02-07T14:15:11Z) - You Better Look Twice: a new perspective for designing accurate
detectors with reduced computations [56.34005280792013]
BLT-netは、新しい低計算の2段階オブジェクト検出アーキテクチャである。
非常にエレガントな第1ステージを使用して、オブジェクトをバックグラウンドから分離することで、計算を削減します。
結果のイメージ提案は、高度に正確なモデルによって第2段階で処理される。
論文 参考訳(メタデータ) (2021-07-21T12:39:51Z) - Shape from Blur: Recovering Textured 3D Shape and Motion of Fast Moving
Objects [115.71874459429381]
本研究では, 物体の3次元形状, テクスチャ, 動きを単一動画像から共同で再構成する新しい課題について述べる。
従来の手法では2次元画像領域でのみ遅延問題に対処するが、3次元領域における全ての物体特性の厳密なモデリングは任意の物体の動きの正確な記述を可能にする。
論文 参考訳(メタデータ) (2021-06-16T13:18:08Z) - Few-Shot Learning for Video Object Detection in a Transfer-Learning
Scheme [70.45901040613015]
ビデオ物体検出のための数発学習の新たな課題について検討する。
我々は,多数のベースクラスオブジェクトに対して映像物体検出を効果的に訓練するトランスファー学習フレームワークと,ノベルクラスオブジェクトのいくつかのビデオクリップを用いる。
論文 参考訳(メタデータ) (2021-03-26T20:37:55Z) - Decoupled Appearance and Motion Learning for Efficient Anomaly Detection
in Surveillance Video [9.80717374118619]
我々は、純粋に教師なしの方法で正常な振る舞いを学習する新しいニューラルネットワークアーキテクチャを提案する。
我々のモデルは、関連するアプローチの16倍から45倍のフレームを毎秒処理できる。
論文 参考訳(メタデータ) (2020-11-10T11:40:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。