論文の概要: EGRU: Event-based GRU for activity-sparse inference and learning
- arxiv url: http://arxiv.org/abs/2206.06178v1
- Date: Mon, 13 Jun 2022 14:07:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-14 17:52:42.993763
- Title: EGRU: Event-based GRU for activity-sparse inference and learning
- Title(参考訳): EGRU:アクティビティスパース推論と学習のためのイベントベースGRU
- Authors: Anand Subramoney, Khaleelulla Khan Nazeer, Mark Sch\"one, Christian
Mayr, David Kappel
- Abstract要約: 本稿では,GRU(Gated Recurrent Units)をイベントベースアクティビティスパースモデルとして再構成するモデルを提案する。
イベントベースGRU(EGRU)は,実世界のタスクにおける最先端のリカレントネットワークモデルと比較して,競合性能を示す。
- 参考スコア(独自算出の注目度): 0.8260432715157026
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The scalability of recurrent neural networks (RNNs) is hindered by the
sequential dependence of each time step's computation on the previous time
step's output. Therefore, one way to speed up and scale RNNs is to reduce the
computation required at each time step independent of model size and task. In
this paper, we propose a model that reformulates Gated Recurrent Units (GRU) as
an event-based activity-sparse model that we call the Event-based GRU (EGRU),
where units compute updates only on receipt of input events (event-based) from
other units. When combined with having only a small fraction of the units
active at a time (activity-sparse), this model has the potential to be vastly
more compute efficient than current RNNs. Notably, activity-sparsity in our
model also translates into sparse parameter updates during gradient descent,
extending this compute efficiency to the training phase. We show that the EGRU
demonstrates competitive performance compared to state-of-the-art recurrent
network models in real-world tasks, including language modeling while
maintaining high activity sparsity naturally during inference and training.
This sets the stage for the next generation of recurrent networks that are
scalable and more suitable for novel neuromorphic hardware.
- Abstract(参考訳): 繰り返しニューラルネットワーク(RNN)のスケーラビリティは、前のタイムステップの出力に対する各タイムステップの計算の逐次的依存によって妨げられる。
したがって、RNNの高速化とスケールアップの1つの方法は、モデルのサイズやタスクに依存しない各ステップで必要とされる計算を減らすことである。
本稿では、イベントベースGRU(Event-based GRU)と呼ばれるイベントベースアクティビティスパースモデルとしてGRU(Gated Recurrent Units)を再構成し、他のユニットからの入力イベント(イベントベース)の受信時にのみ更新を演算するモデルを提案する。
アクティブな単位のごく一部しか持たない(アクティビティスパース)と組み合わせると、このモデルは現在のRNNよりもはるかに効率的な計算能力を持つ。
特に,本モデルでは,勾配降下時のスパースパラメータの更新も行い,この計算効率をトレーニングフェーズに拡張する。
EGRUは,言語モデリングを含む実世界のタスクにおける最先端の繰り返しネットワークモデルと比較して,高い活動空間を推論や訓練中に自然に維持し,競争力を発揮することを示す。
これは、新しいニューロモルフィックなハードウェアに適した、スケーラブルでより適した次世代のリカレントネットワークの舞台となる。
関連論文リスト
- Towards Low-latency Event-based Visual Recognition with Hybrid Step-wise Distillation Spiking Neural Networks [50.32980443749865]
スパイキングニューラルネットワーク(SNN)は、低消費電力と高い生物性のために大きな注目を集めている。
現在のSNNは、ニューロモルフィックデータセットの正確性とレイテンシのバランスをとるのに苦労している。
ニューロモルフィックデータセットに適したステップワイド蒸留法(HSD)を提案する。
論文 参考訳(メタデータ) (2024-09-19T06:52:34Z) - A Dynamical Model of Neural Scaling Laws [79.59705237659547]
ネットワークトレーニングと一般化の解決可能なモデルとして,勾配降下で訓練されたランダムな特徴モデルを分析する。
我々の理論は、データの繰り返し再利用により、トレーニングとテスト損失のギャップが徐々に増大することを示している。
論文 参考訳(メタデータ) (2024-02-02T01:41:38Z) - Online Evolutionary Neural Architecture Search for Multivariate
Non-Stationary Time Series Forecasting [72.89994745876086]
本研究は、オンラインニューロ進化に基づくニューラルアーキテクチャサーチ(ONE-NAS)アルゴリズムを提案する。
ONE-NASは、オンライン予測タスクのためにリカレントニューラルネットワーク(RNN)を自動設計し、動的にトレーニングする新しいニューラルネットワーク探索手法である。
その結果、ONE-NASは従来の統計時系列予測法よりも優れていた。
論文 参考訳(メタデータ) (2023-02-20T22:25:47Z) - Continuous-time convolutions model of event sequences [46.3471121117337]
イベントシーケンスは不均一でスパースであり、従来のモデルは不適当である。
我々は、時間とともに一様でない事象の発生を処理するために設計された効率的な畳み込みニューラルネットワークに基づくCOTICを提案する。
COTICは、次のイベント時間とタイプを予測する際に既存のモデルよりも優れており、最も近いライバルの3.714と比較して平均1.5のランクに達している。
論文 参考訳(メタデータ) (2023-02-13T10:34:51Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - AEGNN: Asynchronous Event-based Graph Neural Networks [54.528926463775946]
イベントベースのグラフニューラルネットワークは、標準のGNNを一般化して、イベントを"進化的"時間グラフとして処理する。
AEGNNは同期入力で容易に訓練でき、テスト時に効率的な「非同期」ネットワークに変換できる。
論文 参考訳(メタデータ) (2022-03-31T16:21:12Z) - Oscillatory Fourier Neural Network: A Compact and Efficient Architecture
for Sequential Processing [16.69710555668727]
本稿では,コサイン活性化と時系列処理のための時間変化成分を有する新しいニューロンモデルを提案する。
提案したニューロンは、スペクトル領域に逐次入力を投影するための効率的なビルディングブロックを提供する。
IMDBデータセットの感情分析に提案されたモデルを適用すると、5時間以内のテスト精度は89.4%に達する。
論文 参考訳(メタデータ) (2021-09-14T19:08:07Z) - Structured in Space, Randomized in Time: Leveraging Dropout in RNNs for
Efficient Training [18.521882534906972]
我々は,同じ物理ニューロンの集合をバッチ内にドロップアウトし,列(ロー)レベルの隠された状態空間を作り出すことにより,ドロップアウトパターンを構築することを提案する。
PTBデータセットに基づく言語モデリング、IWSLT De-EnデータセットとEn-Viデータセットを用いたOpenNMTベースの機械翻訳、エンティティ認識シーケンスラベリングの3つの代表的なNLPタスクについて実験を行った。
論文 参考訳(メタデータ) (2021-06-22T22:44:32Z) - Convolutional Tensor-Train LSTM for Spatio-temporal Learning [116.24172387469994]
本稿では,ビデオシーケンスの長期相関を効率的に学習できる高次LSTMモデルを提案する。
これは、時間をかけて畳み込み特徴を組み合わせることによって予測を行う、新しいテンソルトレインモジュールによって達成される。
この結果は,幅広いアプリケーションやデータセットにおいて,最先端のパフォーマンス向上を実現している。
論文 参考訳(メタデータ) (2020-02-21T05:00:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。