論文の概要: SiTGRU: Single-Tunnelled Gated Recurrent Unit for Abnormality Detection
- arxiv url: http://arxiv.org/abs/2003.13528v1
- Date: Mon, 30 Mar 2020 14:58:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-18 06:59:43.711845
- Title: SiTGRU: Single-Tunnelled Gated Recurrent Unit for Abnormality Detection
- Title(参考訳): SiTGRU:異常検出用単一トンネルゲートリカレントユニット
- Authors: Habtamu Fanta, Zhiwen Shao, Lizhuang Ma
- Abstract要約: 異常検出のための単一トンネルGRU(Single Tunnelled GRU)と呼ばれるGRU(Gated Recurrent Unit)の新規バージョンを提案する。
提案手法は,標準GRUとLong Short Term Memory(LSTM)ネットワークを,検出および一般化タスクのほとんどの指標で上回っている。
- 参考スコア(独自算出の注目度): 29.500392184282518
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Abnormality detection is a challenging task due to the dependence on a
specific context and the unconstrained variability of practical scenarios. In
recent years, it has benefited from the powerful features learnt by deep neural
networks, and handcrafted features specialized for abnormality detectors.
However, these approaches with large complexity still have limitations in
handling long term sequential data (e.g., videos), and their learnt features do
not thoroughly capture useful information. Recurrent Neural Networks (RNNs)
have been shown to be capable of robustly dealing with temporal data in long
term sequences. In this paper, we propose a novel version of Gated Recurrent
Unit (GRU), called Single Tunnelled GRU for abnormality detection.
Particularly, the Single Tunnelled GRU discards the heavy weighted reset gate
from GRU cells that overlooks the importance of past content by only favouring
current input to obtain an optimized single gated cell model. Moreover, we
substitute the hyperbolic tangent activation in standard GRUs with sigmoid
activation, as the former suffers from performance loss in deeper networks.
Empirical results show that our proposed optimized GRU model outperforms
standard GRU and Long Short Term Memory (LSTM) networks on most metrics for
detection and generalization tasks on CUHK Avenue and UCSD datasets. The model
is also computationally efficient with reduced training and testing time over
standard RNNs.
- Abstract(参考訳): 異常検出は、特定の状況と現実シナリオの制約のない変動性に依存するため、困難な課題である。
近年、ディープニューラルネットワークによって学習された強力な特徴と、異常検出に特化した手作り特徴の恩恵を受けている。
しかし、複雑さの大きいこれらのアプローチは、長期のシーケンシャルデータ(ビデオなど)を扱うことに制限があり、その学習機能は、有用な情報を十分に捉えていない。
リカレントニューラルネットワーク(Recurrent Neural Networks, RNN)は、長期的シーケンスにおける時間的データを堅牢に処理できることが示されている。
本稿では,異常検出のための単一トンネルGRUと呼ばれるGRU(Gated Recurrent Unit)の新たなバージョンを提案する。
特に、単一トンネルGRUは、電流入力のみを優先して過去の内容の重要性を見落としているGRUセルから重重リセットゲートを捨て、最適化された単一ゲートセルモデルを得る。
さらに,より深いネットワークでの性能損失に悩まされるため,標準GRUにおける双曲的タンジェント活性化をシグモイド活性化に置き換える。
実験の結果,提案したGRUモデルは,CUHK AvenueおよびUCSDデータセットにおける検出および一般化タスクのほとんどの指標において,標準GRUおよびLong Short Term Memory(LSTM)ネットワークよりも優れていた。
このモデルは計算効率も良く、標準のrnnよりもトレーニングやテスト時間を短縮できる。
関連論文リスト
- NIDS Neural Networks Using Sliding Time Window Data Processing with Trainable Activations and its Generalization Capability [0.0]
本稿では,ネットワーク侵入検知システム(NIDS)のためのニューラルネットワークについて述べる。
ディープパケットインスペクションに頼らず、ほとんどのNIDSデータセットで見つからず、従来のフローコレクタから簡単に取得できる11の機能しか必要としない。
報告されたトレーニング精度は、提案手法の99%を超え、ニューラルネットワークの入力特性は20に満たない。
論文 参考訳(メタデータ) (2024-10-24T11:36:19Z) - Multivariate Time-Series Anomaly Detection based on Enhancing Graph Attention Networks with Topological Analysis [31.43159668073136]
時系列における教師なし異常検出は、手動による介入の必要性を大幅に低減するため、産業応用において不可欠である。
従来の手法では、グラフニューラルネットワーク(GNN)やトランスフォーマーを使用して空間を解析し、RNNは時間的依存をモデル化していた。
本稿では,TopoGDNと呼ばれる多変量時系列異常検出のための拡張グラフ注意ネットワーク(GAT)上に構築された新しい時間モデルを提案する。
論文 参考訳(メタデータ) (2024-08-23T14:06:30Z) - Exploiting T-norms for Deep Learning in Autonomous Driving [60.205021207641174]
自律運転におけるイベント検出のタスクにおいて,メモリ効率のよいtノルムに基づく損失をどうやって定義できるかを示す。
論文 参考訳(メタデータ) (2024-02-17T18:51:21Z) - Normality Learning-based Graph Anomaly Detection via Multi-Scale
Contrastive Learning [61.57383634677747]
グラフ異常検出(GAD)は、機械学習やデータマイニングにおいて注目を集めている。
本稿では,マルチスケールコントラスト学習ネットワーク(NLGAD,略語)による正規性学習に基づくGADフレームワークを提案する。
特に,提案アルゴリズムは,最先端手法と比較して検出性能(最大5.89%のAUCゲイン)を向上させる。
論文 参考訳(メタデータ) (2023-09-12T08:06:04Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - Benign Overfitting in Deep Neural Networks under Lazy Training [72.28294823115502]
データ分布が適切に分離された場合、DNNは分類のためのベイズ最適テスト誤差を達成できることを示す。
よりスムーズな関数との補間により、より一般化できることを示す。
論文 参考訳(メタデータ) (2023-05-30T19:37:44Z) - An Improved Time Feedforward Connections Recurrent Neural Networks [3.0965505512285967]
リカレントニューラルネットワーク(RNN)は洪水予測や財務データ処理といった時間的問題に広く応用されている。
従来のRNNモデルは、厳密な時系列依存性のために勾配問題を増幅する。
勾配問題に対処するために、改良された時間フィードフォワード接続リカレントニューラルネットワーク(TFC-RNN)モデルが最初に提案された。
単一ゲートリカレントユニット(Single Gate Recurrent Unit, SGRU)と呼ばれる新しい細胞構造が提示され、RNNセルのパラメータ数が減少した。
論文 参考訳(メタデータ) (2022-11-03T09:32:39Z) - Memory-augmented Adversarial Autoencoders for Multivariate Time-series
Anomaly Detection with Deep Reconstruction and Prediction [4.033624665609417]
本稿では,時系列の非教師付き異常検出手法であるMemAAEを提案する。
2つの補完的プロキシタスク、再構築と予測を共同でトレーニングすることにより、複数のタスクによる異常検出が優れた性能を得ることを示す。
MemAAEは4つの公開データセットで総合F1スコアの0.90を達成し、最高のベースラインである0.02を上回っている。
論文 参考訳(メタデータ) (2021-10-15T18:29:05Z) - "Forget" the Forget Gate: Estimating Anomalies in Videos using
Self-contained Long Short-Term Memory Networks [20.211951213040937]
本稿では,LSTMに基づく新たな自己完結型ネットワークを学習し,ビデオ中の異常を検出する手法を提案する。
忘れゲートを破棄し,シグモイドを活性化させることにより,両ゲート型軽量LSTM細胞を導入する。
取り外しゲートを除去するとLSTMセルが簡素化され、性能効率と計算効率が向上する。
論文 参考訳(メタデータ) (2021-04-03T20:43:49Z) - Neural Pruning via Growing Regularization [82.9322109208353]
プルーニングの2つの中心的な問題:プルーニングのスケジュールと重み付けの重要度だ。
具体的には, ペナルティ要因が増大するL2正規化変種を提案し, 精度が著しく向上することを示した。
提案アルゴリズムは,構造化プルーニングと非構造化プルーニングの両方において,大規模データセットとネットワークの実装が容易かつスケーラブルである。
論文 参考訳(メタデータ) (2020-12-16T20:16:28Z) - TadGAN: Time Series Anomaly Detection Using Generative Adversarial
Networks [73.01104041298031]
TadGANは、GAN(Generative Adversarial Networks)上に構築された教師なしの異常検出手法である。
時系列の時間相関を捉えるために,ジェネレータと批評家のベースモデルとしてLSTMリカレントニューラルネットワークを用いる。
提案手法の性能と一般化性を示すため,いくつかの異常スコアリング手法を検証し,最も適した手法を報告する。
論文 参考訳(メタデータ) (2020-09-16T15:52:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。