論文の概要: Learning Various Length Dependence by Dual Recurrent Neural Networks
- arxiv url: http://arxiv.org/abs/2005.13867v1
- Date: Thu, 28 May 2020 09:30:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-27 04:28:15.926239
- Title: Learning Various Length Dependence by Dual Recurrent Neural Networks
- Title(参考訳): デュアルリカレントニューラルネットワークによる長さ依存性の学習
- Authors: Chenpeng Zhang (1), Shuai Li (2), Mao Ye (1), Ce Zhu (2), Xue Li (3)
((1) School of Computer Science and Engineering, University of Electronic
Science and Technology of China, (2) School of Information and Communication
Engineering, University of Electronic Science and Technology of China, (3)
School of Information Technology and Electronic Engineering, The University
of Queensland)
- Abstract要約: デュアルリカレントニューラルネットワーク(DuRNN)という新しいモデルを提案する。
DuRNNは短期依存を学習し、長期依存を徐々に学習する2つの部分から構成される。
コントリビューションは,1)長期的・短期的依存を個別に学習するための分割・並行的戦略に基づく新たな再帰モデル,2)異なる時間的依存尺度の分離・学習を促進するための選択メカニズムである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recurrent neural networks (RNNs) are widely used as a memory model for
sequence-related problems. Many variants of RNN have been proposed to solve the
gradient problems of training RNNs and process long sequences. Although some
classical models have been proposed, capturing long-term dependence while
responding to short-term changes remains a challenge. To this problem, we
propose a new model named Dual Recurrent Neural Networks (DuRNN). The DuRNN
consists of two parts to learn the short-term dependence and progressively
learn the long-term dependence. The first part is a recurrent neural network
with constrained full recurrent connections to deal with short-term dependence
in sequence and generate short-term memory. Another part is a recurrent neural
network with independent recurrent connections which helps to learn long-term
dependence and generate long-term memory. A selection mechanism is added
between two parts to help the needed long-term information transfer to the
independent neurons. Multiple modules can be stacked to form a multi-layer
model for better performance. Our contributions are: 1) a new recurrent model
developed based on the divide-and-conquer strategy to learn long and short-term
dependence separately, and 2) a selection mechanism to enhance the separating
and learning of different temporal scales of dependence. Both theoretical
analysis and extensive experiments are conducted to validate the performance of
our model, and we also conduct simple visualization experiments and ablation
analyses for the model interpretability. Experimental results indicate that the
proposed DuRNN model can handle not only very long sequences (over 5000 time
steps), but also short sequences very well. Compared with many state-of-the-art
RNN models, our model has demonstrated efficient and better performance.
- Abstract(参考訳): リカレントニューラルネットワーク(RNN)はシーケンス関連問題のメモリモデルとして広く利用されている。
RNNの多くの変種が、RNNの訓練とプロセス長シーケンスの勾配問題を解くために提案されている。
古典的なモデルもいくつか提案されているが、短期的な変化に対応しながら長期依存を捉えることは課題である。
そこで本研究では,DuRNN(Dual Recurrent Neural Networks)と呼ばれる新しいモデルを提案する。
durnnは短期依存を学習し、段階的に長期依存を学習する2つの部分からなる。
第1部は、シーケンスの短期的依存と短期記憶を生成するために、完全再帰接続を制約したリカレントニューラルネットワークである。
もう1つの部分は、独立したリカレント接続を持つリカレントニューラルネットワークで、長期依存を学習し、長期記憶を生成するのに役立つ。
2つの部分の間に選択機構を追加して、必要な長期的な情報伝達を独立なニューロンに支援する。
複数のモジュールを積み重ねてマルチレイヤモデルを構築すれば、パフォーマンスが向上する。
私たちの貢献は
1)長期的・短期的依存を別々に学習する分断・分断戦略に基づく新たな再帰モデル
2)異なる時間的依存尺度の分離と学習を強化するための選択メカニズム。
モデルの性能を評価するため, 理論解析と広範囲な実験を行い, モデル解釈可能性に関する簡易な可視化実験とアブレーション解析を行った。
実験結果から,提案したDuRNNモデルは非常に長いシーケンス(5000以上のタイムステップ)だけでなく,短いシーケンスも処理可能であることが示唆された。
多くの最先端RNNモデルと比較して、我々のモデルは効率的で優れた性能を示してきた。
関連論文リスト
- TC-LIF: A Two-Compartment Spiking Neuron Model for Long-Term Sequential
Modelling [54.97005925277638]
潜在的な可能性や危険に関連する感覚的手がかりの同定は、長期間の遅延によって有用な手がかりを分離する無関係な事象によってしばしば複雑になる。
SNN(State-of-the-art spiking Neural Network)は、遠方のキュー間の長期的な時間的依存関係を確立する上で、依然として困難な課題である。
そこで本研究では,T-LIFとよばれる,生物学的にインスパイアされたTwo-compartment Leaky Integrate- and-Fireのスパイキングニューロンモデルを提案する。
論文 参考訳(メタデータ) (2023-08-25T08:54:41Z) - Long Short-term Memory with Two-Compartment Spiking Neuron [64.02161577259426]
LSTM-LIFとよばれる,生物学的にインスパイアされたLong Short-Term Memory Leaky Integrate-and-Fireのスパイキングニューロンモデルを提案する。
実験結果は,時間的分類タスクの多種多様な範囲において,優れた時間的分類能力,迅速な訓練収束,ネットワークの一般化性,LSTM-LIFモデルの高エネルギー化を実証した。
したがって、この研究は、新しいニューロモルフィック・コンピューティング・マシンにおいて、困難な時間的処理タスクを解決するための、無数の機会を開放する。
論文 参考訳(メタデータ) (2023-07-14T08:51:03Z) - Continuous time recurrent neural networks: overview and application to
forecasting blood glucose in the intensive care unit [56.801856519460465]
連続時間自己回帰リカレントニューラルネットワーク(Continuous Time Autoregressive Recurrent Neural Network, CTRNN)は、不規則な観測を考慮に入れたディープラーニングモデルである。
重篤なケア環境下での血糖値の確率予測へのこれらのモデルの適用を実証する。
論文 参考訳(メタデータ) (2023-04-14T09:39:06Z) - An Improved Time Feedforward Connections Recurrent Neural Networks [3.0965505512285967]
リカレントニューラルネットワーク(RNN)は洪水予測や財務データ処理といった時間的問題に広く応用されている。
従来のRNNモデルは、厳密な時系列依存性のために勾配問題を増幅する。
勾配問題に対処するために、改良された時間フィードフォワード接続リカレントニューラルネットワーク(TFC-RNN)モデルが最初に提案された。
単一ゲートリカレントユニット(Single Gate Recurrent Unit, SGRU)と呼ばれる新しい細胞構造が提示され、RNNセルのパラメータ数が減少した。
論文 参考訳(メタデータ) (2022-11-03T09:32:39Z) - Learning Low Dimensional State Spaces with Overparameterized Recurrent
Neural Nets [57.06026574261203]
我々は、長期記憶をモデル化できる低次元状態空間を学習するための理論的証拠を提供する。
実験は、線形RNNと非線形RNNの両方で低次元状態空間を学習することで、我々の理論を裏付けるものである。
論文 参考訳(メタデータ) (2022-10-25T14:45:15Z) - Oscillatory Fourier Neural Network: A Compact and Efficient Architecture
for Sequential Processing [16.69710555668727]
本稿では,コサイン活性化と時系列処理のための時間変化成分を有する新しいニューロンモデルを提案する。
提案したニューロンは、スペクトル領域に逐次入力を投影するための効率的なビルディングブロックを提供する。
IMDBデータセットの感情分析に提案されたモデルを適用すると、5時間以内のテスト精度は89.4%に達する。
論文 参考訳(メタデータ) (2021-09-14T19:08:07Z) - CARRNN: A Continuous Autoregressive Recurrent Neural Network for Deep
Representation Learning from Sporadic Temporal Data [1.8352113484137622]
本稿では,散発データにおける複数の時間的特徴をモデル化するための新しい深層学習モデルを提案する。
提案モデルはCARRNNと呼ばれ、時間ラグによって変調されたニューラルネットワークを用いてエンドツーエンドにトレーニング可能な一般化された離散時間自己回帰モデルを使用する。
アルツハイマー病進行モデルおよび集中治療単位(ICU)死亡率予測のためのデータを用いて,多変量時系列回帰タスクに適用した。
論文 参考訳(メタデータ) (2021-04-08T12:43:44Z) - UnICORNN: A recurrent model for learning very long time dependencies [0.0]
2次常微分方程式のハミルトン系の離散性を保つ構造に基づく新しいRNNアーキテクチャを提案する。
結果として得られるrnnは高速で可逆(時間)で、メモリ効率が良く、隠れた状態勾配の厳密な境界を導出して、爆発と消滅の勾配問題の緩和を証明する。
論文 参考訳(メタデータ) (2021-03-09T15:19:59Z) - On the Memory Mechanism of Tensor-Power Recurrent Models [25.83531612758211]
TPリカレントモデルの記憶機構について検討する。
長期記憶効果を達成するためには, p が重要条件であることが示される。
新しいモデルは、安定して長いメモリ効果の恩恵を受けることが期待されている。
論文 参考訳(メタデータ) (2021-03-02T07:07:47Z) - Incremental Training of a Recurrent Neural Network Exploiting a
Multi-Scale Dynamic Memory [79.42778415729475]
本稿では,マルチスケール学習を対象とする,漸進的に訓練された再帰的アーキテクチャを提案する。
隠れた状態を異なるモジュールに分割することで、シンプルなRNNのアーキテクチャを拡張する方法を示す。
新しいモジュールがモデルに反復的に追加され、徐々に長い依存関係を学習するトレーニングアルゴリズムについて議論する。
論文 参考訳(メタデータ) (2020-06-29T08:35:49Z) - Neural Additive Models: Interpretable Machine Learning with Neural Nets [77.66871378302774]
ディープニューラルネットワーク(DNN)は、さまざまなタスクにおいて優れたパフォーマンスを達成した強力なブラックボックス予測器である。
本稿では、DNNの表現性と一般化した加法モデルの固有知性を組み合わせたニューラル付加モデル(NAM)を提案する。
NAMは、ニューラルネットワークの線形結合を学び、それぞれが単一の入力機能に付随する。
論文 参考訳(メタデータ) (2020-04-29T01:28:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。