論文の概要: SiTGRU: Single-Tunnelled Gated Recurrent Unit for Abnormality Detection
- arxiv url: http://arxiv.org/abs/2003.13528v1
- Date: Mon, 30 Mar 2020 14:58:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-18 06:59:43.711845
- Title: SiTGRU: Single-Tunnelled Gated Recurrent Unit for Abnormality Detection
- Title(参考訳): SiTGRU:異常検出用単一トンネルゲートリカレントユニット
- Authors: Habtamu Fanta, Zhiwen Shao, Lizhuang Ma
- Abstract要約: 異常検出のための単一トンネルGRU(Single Tunnelled GRU)と呼ばれるGRU(Gated Recurrent Unit)の新規バージョンを提案する。
提案手法は,標準GRUとLong Short Term Memory(LSTM)ネットワークを,検出および一般化タスクのほとんどの指標で上回っている。
- 参考スコア(独自算出の注目度): 29.500392184282518
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Abnormality detection is a challenging task due to the dependence on a
specific context and the unconstrained variability of practical scenarios. In
recent years, it has benefited from the powerful features learnt by deep neural
networks, and handcrafted features specialized for abnormality detectors.
However, these approaches with large complexity still have limitations in
handling long term sequential data (e.g., videos), and their learnt features do
not thoroughly capture useful information. Recurrent Neural Networks (RNNs)
have been shown to be capable of robustly dealing with temporal data in long
term sequences. In this paper, we propose a novel version of Gated Recurrent
Unit (GRU), called Single Tunnelled GRU for abnormality detection.
Particularly, the Single Tunnelled GRU discards the heavy weighted reset gate
from GRU cells that overlooks the importance of past content by only favouring
current input to obtain an optimized single gated cell model. Moreover, we
substitute the hyperbolic tangent activation in standard GRUs with sigmoid
activation, as the former suffers from performance loss in deeper networks.
Empirical results show that our proposed optimized GRU model outperforms
standard GRU and Long Short Term Memory (LSTM) networks on most metrics for
detection and generalization tasks on CUHK Avenue and UCSD datasets. The model
is also computationally efficient with reduced training and testing time over
standard RNNs.
- Abstract(参考訳): 異常検出は、特定の状況と現実シナリオの制約のない変動性に依存するため、困難な課題である。
近年、ディープニューラルネットワークによって学習された強力な特徴と、異常検出に特化した手作り特徴の恩恵を受けている。
しかし、複雑さの大きいこれらのアプローチは、長期のシーケンシャルデータ(ビデオなど)を扱うことに制限があり、その学習機能は、有用な情報を十分に捉えていない。
リカレントニューラルネットワーク(Recurrent Neural Networks, RNN)は、長期的シーケンスにおける時間的データを堅牢に処理できることが示されている。
本稿では,異常検出のための単一トンネルGRUと呼ばれるGRU(Gated Recurrent Unit)の新たなバージョンを提案する。
特に、単一トンネルGRUは、電流入力のみを優先して過去の内容の重要性を見落としているGRUセルから重重リセットゲートを捨て、最適化された単一ゲートセルモデルを得る。
さらに,より深いネットワークでの性能損失に悩まされるため,標準GRUにおける双曲的タンジェント活性化をシグモイド活性化に置き換える。
実験の結果,提案したGRUモデルは,CUHK AvenueおよびUCSDデータセットにおける検出および一般化タスクのほとんどの指標において,標準GRUおよびLong Short Term Memory(LSTM)ネットワークよりも優れていた。
このモデルは計算効率も良く、標準のrnnよりもトレーニングやテスト時間を短縮できる。
関連論文リスト
- Spatial-temporal Memories Enhanced Graph Autoencoder for Anomaly Detection in Dynamic Graphs [52.956235109354175]
動的グラフにおける異常検出は、グラフ構造と属性の時間的進化によって大きな課題となる。
空間記憶強調グラフオートエンコーダ(STRIPE)について紹介する。
STRIPEは、動的グラフの異なる空間的・時間的ダイナミクスを効果的に活用することにより、異常を識別する優れた能力を示した。
論文 参考訳(メタデータ) (2024-03-14T02:26:10Z) - Exploiting T-norms for Deep Learning in Autonomous Driving [60.205021207641174]
自律運転におけるイベント検出のタスクにおいて,メモリ効率のよいtノルムに基づく損失をどうやって定義できるかを示す。
論文 参考訳(メタデータ) (2024-02-17T18:51:21Z) - Normality Learning-based Graph Anomaly Detection via Multi-Scale
Contrastive Learning [61.57383634677747]
グラフ異常検出(GAD)は、機械学習やデータマイニングにおいて注目を集めている。
本稿では,マルチスケールコントラスト学習ネットワーク(NLGAD,略語)による正規性学習に基づくGADフレームワークを提案する。
特に,提案アルゴリズムは,最先端手法と比較して検出性能(最大5.89%のAUCゲイン)を向上させる。
論文 参考訳(メタデータ) (2023-09-12T08:06:04Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - Benign Overfitting in Deep Neural Networks under Lazy Training [72.28294823115502]
データ分布が適切に分離された場合、DNNは分類のためのベイズ最適テスト誤差を達成できることを示す。
よりスムーズな関数との補間により、より一般化できることを示す。
論文 参考訳(メタデータ) (2023-05-30T19:37:44Z) - An Improved Time Feedforward Connections Recurrent Neural Networks [3.0965505512285967]
リカレントニューラルネットワーク(RNN)は洪水予測や財務データ処理といった時間的問題に広く応用されている。
従来のRNNモデルは、厳密な時系列依存性のために勾配問題を増幅する。
勾配問題に対処するために、改良された時間フィードフォワード接続リカレントニューラルネットワーク(TFC-RNN)モデルが最初に提案された。
単一ゲートリカレントユニット(Single Gate Recurrent Unit, SGRU)と呼ばれる新しい細胞構造が提示され、RNNセルのパラメータ数が減少した。
論文 参考訳(メタデータ) (2022-11-03T09:32:39Z) - Deep Generative model with Hierarchical Latent Factors for Time Series
Anomaly Detection [40.21502451136054]
本研究は、時系列異常検出のための新しい生成モデルであるDGHLを提示する。
トップダウンの畳み込みネットワークは、新しい階層的な潜在空間を時系列ウィンドウにマッピングし、時間ダイナミクスを利用して情報を効率的にエンコードする。
提案手法は,4つのベンチマーク・データセットにおいて,現在の最先端モデルよりも優れていた。
論文 参考訳(メタデータ) (2022-02-15T17:19:44Z) - Memory-augmented Adversarial Autoencoders for Multivariate Time-series
Anomaly Detection with Deep Reconstruction and Prediction [4.033624665609417]
本稿では,時系列の非教師付き異常検出手法であるMemAAEを提案する。
2つの補完的プロキシタスク、再構築と予測を共同でトレーニングすることにより、複数のタスクによる異常検出が優れた性能を得ることを示す。
MemAAEは4つの公開データセットで総合F1スコアの0.90を達成し、最高のベースラインである0.02を上回っている。
論文 参考訳(メタデータ) (2021-10-15T18:29:05Z) - "Forget" the Forget Gate: Estimating Anomalies in Videos using
Self-contained Long Short-Term Memory Networks [20.211951213040937]
本稿では,LSTMに基づく新たな自己完結型ネットワークを学習し,ビデオ中の異常を検出する手法を提案する。
忘れゲートを破棄し,シグモイドを活性化させることにより,両ゲート型軽量LSTM細胞を導入する。
取り外しゲートを除去するとLSTMセルが簡素化され、性能効率と計算効率が向上する。
論文 参考訳(メタデータ) (2021-04-03T20:43:49Z) - Neural Pruning via Growing Regularization [82.9322109208353]
プルーニングの2つの中心的な問題:プルーニングのスケジュールと重み付けの重要度だ。
具体的には, ペナルティ要因が増大するL2正規化変種を提案し, 精度が著しく向上することを示した。
提案アルゴリズムは,構造化プルーニングと非構造化プルーニングの両方において,大規模データセットとネットワークの実装が容易かつスケーラブルである。
論文 参考訳(メタデータ) (2020-12-16T20:16:28Z) - A GRU-based Mixture Density Network for Data-Driven Dynamic Stochastic
Programming [15.517550827358104]
本稿では、時系列決定問題に対する革新的なデータ駆動動的プログラミング(DD-DSP)フレームワークを提案する。
具体的には、GRUとガウス混合モデル(GMM)を統合するディープニューラルネットワークを考案する。
我々のフレームワークはLSTMに基づくデータ駆動最適化よりも優れており、車両の平均はLSTMよりも低い。
論文 参考訳(メタデータ) (2020-06-26T15:42:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。