論文の概要: Exploiting Low-Rank Tensor-Train Deep Neural Networks Based on
Riemannian Gradient Descent With Illustrations of Speech Processing
- arxiv url: http://arxiv.org/abs/2203.06031v1
- Date: Fri, 11 Mar 2022 15:55:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-14 13:19:16.150831
- Title: Exploiting Low-Rank Tensor-Train Deep Neural Networks Based on
Riemannian Gradient Descent With Illustrations of Speech Processing
- Title(参考訳): リーマン勾配Descentに基づく低域テンソルトレイン深層ニューラルネットワークの発声と音声処理の図解
- Authors: Jun Qi, Chao-Han Huck Yang, Pin-Yu Chen, Javier Tejedor
- Abstract要約: 我々は、低ランクテンソルトレイン深層ニューラルネットワーク(TT-DNN)を用いて、エンドツーエンドのディープラーニングパイプライン、すなわちLR-TT-DNNを構築する。
LR-TT-DNNと畳み込みニューラルネットワーク(CNN)を組み合わせたハイブリッドモデルを構築し、性能を向上する。
我々の実証的な証拠は、モデルパラメータが少ないLR-TT-DNNとCNN+(LR-TT-DNN)モデルが、TT-DNNとCNN+(LR-TT-DNN)モデルよりも優れていることを示している。
- 参考スコア(独自算出の注目度): 74.31472195046099
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This work focuses on designing low complexity hybrid tensor networks by
considering trade-offs between the model complexity and practical performance.
Firstly, we exploit a low-rank tensor-train deep neural network (TT-DNN) to
build an end-to-end deep learning pipeline, namely LR-TT-DNN. Secondly, a
hybrid model combining LR-TT-DNN with a convolutional neural network (CNN),
which is denoted as CNN+(LR-TT-DNN), is set up to boost the performance.
Instead of randomly assigning large TT-ranks for TT-DNN, we leverage Riemannian
gradient descent to determine a TT-DNN associated with small TT-ranks.
Furthermore, CNN+(LR-TT-DNN) consists of convolutional layers at the bottom for
feature extraction and several TT layers at the top to solve regression and
classification problems. We separately assess the LR-TT-DNN and CNN+(LR-TT-DNN)
models on speech enhancement and spoken command recognition tasks. Our
empirical evidence demonstrates that the LR-TT-DNN and CNN+(LR-TT-DNN) models
with fewer model parameters can outperform the TT-DNN and CNN+(TT-DNN)
counterparts.
- Abstract(参考訳): 本研究は,モデル複雑性と実用性能のトレードオフを考慮した低複雑性ハイブリッドテンソルネットワークの設計に焦点をあてる。
まず、低ランクテンソルトレイン深層ニューラルネットワーク(TT-DNN)を用いて、エンドツーエンドのディープラーニングパイプライン、すなわちLR-TT-DNNを構築する。
次に、LR-TT-DNNとCNN+(LR-TT-DNN)と呼ばれる畳み込みニューラルネットワーク(CNN)を組み合わせたハイブリッドモデルを構築し、性能を向上させる。
TT-DNNにTT-ランクをランダムに割り当てる代わりに、リーマン勾配から小さなTT-DNNに付随するTT-DNNを決定する。
さらに、CNN+(LR-TT-DNN)は特徴抽出のための下部の畳み込み層と上部のTT層から構成され、回帰と分類の問題を解決する。
音声強調タスクと音声コマンド認識タスクにおいて、LR-TT-DNNとCNN+(LR-TT-DNN)モデルを別々に評価する。
我々の実証的な証拠は、モデルパラメータが少ないLR-TT-DNNとCNN+(LR-TT-DNN)モデルが、TT-DNNとCNN+(TT-DNN)モデルよりも優れていることを示している。
関連論文リスト
- TT-SNN: Tensor Train Decomposition for Efficient Spiking Neural Network
Training [27.565726483503838]
スパイキングニューラルネットワーク(TT-SNN)の列車分解について紹介する。
TT-SNNはトレーニング可能な重量分解によってモデルサイズを削減し、ストレージ、FLOP、レイテンシーを削減した。
また,典型的な逐次テンソル計算の代替として並列計算を提案する。
論文 参考訳(メタデータ) (2024-01-15T23:08:19Z) - LC-TTFS: Towards Lossless Network Conversion for Spiking Neural Networks
with TTFS Coding [55.64533786293656]
我々は,AIタスクにおいて,ANNのアクティベーション値とSNNのスパイク時間とのほぼ完全なマッピングを実現することができることを示す。
この研究は、電力制約のあるエッジコンピューティングプラットフォームに超低消費電力のTTFSベースのSNNをデプロイする方法を舗装している。
論文 参考訳(メタデータ) (2023-10-23T14:26:16Z) - Training High-Performance Low-Latency Spiking Neural Networks by
Differentiation on Spike Representation [70.75043144299168]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上に実装された場合、有望なエネルギー効率のAIモデルである。
非分化性のため、SNNを効率的に訓練することは困難である。
本稿では,ハイパフォーマンスを実現するスパイク表現法(DSR)の差分法を提案する。
論文 参考訳(メタデータ) (2022-05-01T12:44:49Z) - Exploiting Hybrid Models of Tensor-Train Networks for Spoken Command
Recognition [9.262289183808035]
本研究の目的は,低複雑性音声コマンド認識(SCR)システムの設計である。
我々は、テンソルトレイン(TT)ネットワークの深いハイブリッドアーキテクチャを利用して、エンドツーエンドのSRCパイプラインを構築する。
提案したCNN+(TT-DNN)モデルでは,CNNモデルより4倍少ないモデルパラメータで96.31%の競争精度が得られる。
論文 参考訳(メタデータ) (2022-01-11T05:57:38Z) - Tensor-Train Recurrent Neural Networks for Interpretable Multi-Way
Financial Forecasting [24.50116388903113]
recurrent neural networks(rnns)は、シーケンスモデリングのためのデファクト標準機械学習ツールである。
TT-RNN(TT-RNN)は、テンソルに固有の圧縮能力を介して、次元の呪いに対処する能力を有する。
TT因子の解析により, テンソル分解の基盤となる物理的意味は, TT-RNNモデルが結果の解釈可能性に役立つことを示す。
論文 参考訳(メタデータ) (2021-05-11T12:38:34Z) - Explore the Knowledge contained in Network Weights to Obtain Sparse
Neural Networks [2.649890751459017]
本稿では,ニューラルネットワーク(NN)における疎結合層の自動獲得のための新しい学習手法を提案する。
タスクニューラルネットワーク(TNN)の構造を最適化するためにスイッチングニューラルネットワーク(SNN)を設計する。
論文 参考訳(メタデータ) (2021-03-26T11:29:40Z) - Deep Time Delay Neural Network for Speech Enhancement with Full Data
Learning [60.20150317299749]
本稿では,全データ学習による音声強調のためのディープタイム遅延ニューラルネットワーク(TDNN)を提案する。
トレーニングデータを完全に活用するために,音声強調のための完全なデータ学習手法を提案する。
論文 参考訳(メタデータ) (2020-11-11T06:32:37Z) - Block-term Tensor Neural Networks [29.442026567710435]
ブロック終端テンソル層(BT層)は,CNNやRNNなどのニューラルネットワークモデルに容易に適用可能であることを示す。
CNNとRNNのBT層は、元のDNNの表現力を維持したり改善したりしながら、パラメータ数に対して非常に大きな圧縮比を達成することができる。
論文 参考訳(メタデータ) (2020-10-10T09:58:43Z) - Exploring Deep Hybrid Tensor-to-Vector Network Architectures for
Regression Based Speech Enhancement [53.47564132861866]
我々は、CNN-TTというハイブリッドアーキテクチャが、モデルパラメータを小さくして高品質な性能を維持することができることを見出した。
CNN-TTは、音声品質を改善するために、特徴抽出のために下部に複数の畳み込み層で構成されている。
論文 参考訳(メタデータ) (2020-07-25T22:21:05Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。