論文の概要: "Forget" the Forget Gate: Estimating Anomalies in Videos using
Self-contained Long Short-Term Memory Networks
- arxiv url: http://arxiv.org/abs/2104.01478v1
- Date: Sat, 3 Apr 2021 20:43:49 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-06 14:38:31.658200
- Title: "Forget" the Forget Gate: Estimating Anomalies in Videos using
Self-contained Long Short-Term Memory Networks
- Title(参考訳): forget" the forget gate:自己完結型長期記憶ネットワークを用いたビデオの異常推定
- Authors: Habtamu Fanta, Zhiwen Shao, Lizhuang Ma
- Abstract要約: 本稿では,LSTMに基づく新たな自己完結型ネットワークを学習し,ビデオ中の異常を検出する手法を提案する。
忘れゲートを破棄し,シグモイドを活性化させることにより,両ゲート型軽量LSTM細胞を導入する。
取り外しゲートを除去するとLSTMセルが簡素化され、性能効率と計算効率が向上する。
- 参考スコア(独自算出の注目度): 20.211951213040937
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Abnormal event detection is a challenging task that requires effectively
handling intricate features of appearance and motion. In this paper, we present
an approach of detecting anomalies in videos by learning a novel LSTM based
self-contained network on normal dense optical flow. Due to their sigmoid
implementations, standard LSTM's forget gate is susceptible to overlooking and
dismissing relevant content in long sequence tasks like abnormality detection.
The forget gate mitigates participation of previous hidden state for
computation of cell state prioritizing current input. In addition, the
hyperbolic tangent activation of standard LSTMs sacrifices performance when a
network gets deeper. To tackle these two limitations, we introduce a bi-gated,
light LSTM cell by discarding the forget gate and introducing sigmoid
activation. Specifically, the LSTM architecture we come up with fully sustains
content from previous hidden state thereby enabling the trained model to be
robust and make context-independent decision during evaluation. Removing the
forget gate results in a simplified and undemanding LSTM cell with improved
performance effectiveness and computational efficiency. Empirical evaluations
show that the proposed bi-gated LSTM based network outperforms various LSTM
based models verifying its effectiveness for abnormality detection and
generalization tasks on CUHK Avenue and UCSD datasets.
- Abstract(参考訳): 異常事象検出は、外観と動きの複雑な特徴を効果的に扱うことを必要とする課題である。
本稿では,新しいlstmベース自己完結型ネットワークを正規密集光流で学習し,映像中の異常を検出する手法を提案する。
シグモイドの実装により、標準のLSTMのリザーブゲートは、異常検出のような長いシーケンスタスクにおいて関連コンテンツを見落とし、取り除くことができる。
忘れゲートは、電流入力を優先するセル状態の計算のために、以前の隠れ状態の参加を緩和する。
さらに、標準LSTMの双曲的タンジェントアクティベーションは、ネットワークが深まると性能を犠牲にする。
これら2つの制限に対処するため,両ゲート型軽量LSTM細胞をリザーブゲートを破棄し,シグモイド活性化を導入する。
具体的には、私たちが思いついたLSTMアーキテクチャは、以前の隠れ状態から完全に持続するコンテントを持ち、トレーニングされたモデルが堅牢で、評価中に文脈に依存しない決定をすることができる。
取り外しゲートを除去するとLSTMセルが簡素化され、性能効率と計算効率が向上する。
実証評価の結果,提案した二ゲートLSTMネットワークは,CUHK Avenue および UCSD データセットにおける異常検出および一般化タスクの有効性を検証するLSTMモデルよりも優れていた。
関連論文リスト
- RigLSTM: Recurrent Independent Grid LSTM for Generalizable Sequence
Learning [75.61681328968714]
本稿では,対象タスクの基盤となるモジュール構造を利用するために,リカレントな独立したGrid LSTM(RigLSTM)を提案する。
本モデルでは, セル選択, 入力特徴選択, 隠れ状態選択, ソフト状態更新を採用し, より優れた一般化を実現する。
論文 参考訳(メタデータ) (2023-11-03T07:40:06Z) - Towards Energy-Efficient, Low-Latency and Accurate Spiking LSTMs [1.7969777786551424]
Spiking Neural Networks(SNN)は、複雑なタスクのための魅力的なテンポラルコンピューティングパラダイムビジョンとして登場した。
そこで本研究では,新規な長期記憶ネットワーク(LSTM)の学習フレームワークを提案する。
rev-to-SNN変換フレームワーク、続いてSNNトレーニング。
我々は、時間的M、Google Speech Commands(GSC)データセット、異なるLSTMアーキテクチャ上のUCIスマートフォンなど、逐次学習タスクに関するフレームワークを評価した。
論文 参考訳(メタデータ) (2022-10-23T04:10:27Z) - Extreme-Long-short Term Memory for Time-series Prediction [0.0]
Long Short-Term Memory (LSTM)は、新しいタイプのリカレントニューラルネットワーク(RNN)である
本稿では,高度なLSTMアルゴリズムであるExtreme Long Short-Term Memory (E-LSTM)を提案する。
新しいE-LSTMは、7番目のエポックなLSTMの結果を得るためには2エポックしか必要としない。
論文 参考訳(メタデータ) (2022-10-15T09:45:48Z) - Self-Supervised Masked Convolutional Transformer Block for Anomaly
Detection [122.4894940892536]
本稿では, 自己監督型マスク型畳み込み変圧器ブロック (SSMCTB) について述べる。
本研究では,従来の自己教師型予測畳み込み抑止ブロック(SSPCAB)を3次元マスク付き畳み込み層,チャンネルワイドアテンション用トランスフォーマー,およびハマーロスに基づく新たな自己教師型目標を用いて拡張する。
論文 参考訳(メタデータ) (2022-09-25T04:56:10Z) - Braille Letter Reading: A Benchmark for Spatio-Temporal Pattern
Recognition on Neuromorphic Hardware [50.380319968947035]
近年の深層学習手法は,そのようなタスクにおいて精度が向上しているが,従来の組込みソリューションへの実装は依然として計算量が非常に高く,エネルギーコストも高い。
文字読み込みによるエッジにおける触覚パターン認識のための新しいベンチマークを提案する。
フィードフォワードとリカレントスパイキングニューラルネットワーク(SNN)を、サロゲート勾配の時間によるバックプロパゲーションを用いてオフラインでトレーニングし比較し、効率的な推論のためにIntel Loihimorphicチップにデプロイした。
LSTMは14%の精度で繰り返しSNNより優れており、Loihi上での繰り返しSNNは237倍のエネルギーである。
論文 参考訳(メタデータ) (2022-05-30T14:30:45Z) - Working Memory Connections for LSTM [51.742526187978726]
ワーキングメモリ接続は,様々なタスクにおけるLSTMの性能を常に向上することを示す。
数値的な結果は、細胞状態がゲート構造に含まれる価値のある情報を含んでいることを示唆している。
論文 参考訳(メタデータ) (2021-08-31T18:01:30Z) - Object Tracking through Residual and Dense LSTMs [67.98948222599849]
LSTM(Long Short-Term Memory)リカレントニューラルネットワークに基づくディープラーニングベースのトラッカーが、強力な代替手段として登場した。
DenseLSTMはResidualおよびRegular LSTMより優れ、ニュアンセに対する高いレジリエンスを提供する。
ケーススタディは、他のトラッカーの堅牢性を高めるために残差ベースRNNの採用を支援する。
論文 参考訳(メタデータ) (2020-06-22T08:20:17Z) - Unsupervised Online Anomaly Detection On Irregularly Sampled Or Missing
Valued Time-Series Data Using LSTM Networks [0.0]
異常検出について検討し,変長,不規則なサンプルシーケンス,あるいは欠落した値を含むシーケンスを処理するアルゴリズムを提案する。
しかし,本アルゴリズムは完全に教師なしであり,教師付きあるいは半教師付きケースに容易に拡張できる。
論文 参考訳(メタデータ) (2020-05-25T09:41:04Z) - SiTGRU: Single-Tunnelled Gated Recurrent Unit for Abnormality Detection [29.500392184282518]
異常検出のための単一トンネルGRU(Single Tunnelled GRU)と呼ばれるGRU(Gated Recurrent Unit)の新規バージョンを提案する。
提案手法は,標準GRUとLong Short Term Memory(LSTM)ネットワークを,検出および一般化タスクのほとんどの指標で上回っている。
論文 参考訳(メタデータ) (2020-03-30T14:58:13Z) - Refined Gate: A Simple and Effective Gating Mechanism for Recurrent
Units [68.30422112784355]
本稿では,この問題に対処する一般ゲートリカレントニューラルネットワークにおける新しいゲーティング機構を提案する。
提案したゲートは、抽出された入力特徴とバニラゲートの出力を直接的にショートする。
LSTM, GRU, MGUの3種類のゲートRNNに対して, 提案したゲーティング機構を検証する。
論文 参考訳(メタデータ) (2020-02-26T07:51:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。