論文の概要: Tensor train decompositions on recurrent networks
- arxiv url: http://arxiv.org/abs/2006.05442v1
- Date: Tue, 9 Jun 2020 18:25:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-23 14:10:08.435316
- Title: Tensor train decompositions on recurrent networks
- Title(参考訳): 繰り返しネットワーク上のテンソル列車分解
- Authors: Alejandro Murua, Ramchalam Ramakrishnan, Xinlin Li, Rui Heng Yang,
Vahid Partovi Nia
- Abstract要約: マトリックス製品状態(MPS)テンソルトレインは、ストレージの削減と推論時の計算時間の観点から、MPOよりも魅力的な特徴を持つ。
理論解析により,MPSテンソル列車はLSTMネットワーク圧縮の最前線に置かれるべきであることを示す。
- 参考スコア(独自算出の注目度): 60.334946204107446
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recurrent neural networks (RNN) such as long-short-term memory (LSTM)
networks are essential in a multitude of daily live tasks such as speech,
language, video, and multimodal learning. The shift from cloud to edge
computation intensifies the need to contain the growth of RNN parameters.
Current research on RNN shows that despite the performance obtained on
convolutional neural networks (CNN), keeping a good performance in compressed
RNNs is still a challenge. Most of the literature on compression focuses on
CNNs using matrix product (MPO) operator tensor trains. However, matrix product
state (MPS) tensor trains have more attractive features than MPOs, in terms of
storage reduction and computing time at inference. We show that MPS tensor
trains should be at the forefront of LSTM network compression through a
theoretical analysis and practical experiments on NLP task.
- Abstract(参考訳): 長期記憶(LSTM)ネットワークのようなリカレントニューラルネットワーク(RNN)は、音声、言語、ビデオ、マルチモーダル学習などの日常的なタスクに不可欠である。
クラウドからエッジへの計算へのシフトは、rnnパラメータの成長を包含する必要性を強める。
RNNに関する最近の研究は、畳み込みニューラルネットワーク(CNN)の性能にもかかわらず、圧縮されたRNNの性能を維持することが依然として課題であることを示している。
圧縮に関する文献の多くは、行列積(MPO)演算子テンソルトレインを用いたCNNに焦点を当てている。
しかし, 行列積状態 (MPS) テンソルは, 記憶量削減や推定計算時間の観点から, MPOよりも魅力的な特徴を持つ。
nlpタスクに関する理論的解析と実践実験を通じて,mpsテンソルトレインはlstmネットワーク圧縮の最前線にあるべきであることを示した。
関連論文リスト
- TT-SNN: Tensor Train Decomposition for Efficient Spiking Neural Network
Training [27.565726483503838]
スパイキングニューラルネットワーク(TT-SNN)の列車分解について紹介する。
TT-SNNはトレーニング可能な重量分解によってモデルサイズを削減し、ストレージ、FLOP、レイテンシーを削減した。
また,典型的な逐次テンソル計算の代替として並列計算を提案する。
論文 参考訳(メタデータ) (2024-01-15T23:08:19Z) - Accelerating SNN Training with Stochastic Parallelizable Spiking Neurons [1.7056768055368383]
スパイキングニューラルネットワーク(SNN)は、特にニューロモルフィックハードウェアにおいて、少ないエネルギーを使用しながら特徴を学習することができる。
深層学習において最も広く用いられるニューロンは、時間と火災(LIF)ニューロンである。
論文 参考訳(メタデータ) (2023-06-22T04:25:27Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - Training Spiking Neural Networks with Local Tandem Learning [96.32026780517097]
スパイキングニューラルネットワーク(SNN)は、前者よりも生物学的に可塑性でエネルギー効率が高いことが示されている。
本稿では,局所タンデム学習(Local Tandem Learning, LTL)と呼ばれる一般化学習規則を提案する。
CIFAR-10データセット上の5つのトレーニングエポック内に高速なネットワーク収束を示すとともに,計算複雑性が低い。
論文 参考訳(メタデータ) (2022-10-10T10:05:00Z) - Online Training Through Time for Spiking Neural Networks [66.7744060103562]
スパイキングニューラルネットワーク(SNN)は、脳にインスパイアされたエネルギー効率のモデルである。
近年のトレーニング手法の進歩により、レイテンシの低い大規模タスクにおいて、ディープSNNを成功させることができた。
本稿では,BPTT から派生した SNN の時間的学習(OTTT)によるオンライントレーニングを提案する。
論文 参考訳(メタデータ) (2022-10-09T07:47:56Z) - Rapid training of quantum recurrent neural network [26.087244189340858]
本稿では,これらの障害に対処する量子リカレントニューラルネットワーク(QRNN)を提案する。
ネットワークの設計は連続変数量子コンピューティングのパラダイムに基づいている。
数値シミュレーションにより、QRNNは古典的ネットワークよりも少ないエポックで最適な重みに収束していることが示された。
論文 参考訳(メタデータ) (2022-07-01T12:29:33Z) - Spiking Neural Networks with Improved Inherent Recurrence Dynamics for
Sequential Learning [6.417011237981518]
漏れた統合と発火(LIF)ニューロンを持つニューラルネットワーク(SNN)は、イベント駆動方式で操作できる。
我々は,SNNを逐次的なタスクのために訓練し,LIFニューロンのネットワークへの修正を提案する。
そこで我々は,提案するSNNのトレーニング手法を開発し,本質的な再帰ダイナミクスを改良した。
論文 参考訳(メタデータ) (2021-09-04T17:13:28Z) - Block-term Tensor Neural Networks [29.442026567710435]
ブロック終端テンソル層(BT層)は,CNNやRNNなどのニューラルネットワークモデルに容易に適用可能であることを示す。
CNNとRNNのBT層は、元のDNNの表現力を維持したり改善したりしながら、パラメータ数に対して非常に大きな圧縮比を達成することができる。
論文 参考訳(メタデータ) (2020-10-10T09:58:43Z) - A Fully Tensorized Recurrent Neural Network [48.50376453324581]
重み付けされたRNNアーキテクチャを導入し、各リカレントセル内の個別の重み付け行列を共同で符号化する。
このアプローチはモデルのサイズを数桁削減するが、通常のRNNと同等あるいは優れた性能を維持している。
論文 参考訳(メタデータ) (2020-10-08T18:24:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。