論文の概要: Exploiting Hybrid Models of Tensor-Train Networks for Spoken Command
Recognition
- arxiv url: http://arxiv.org/abs/2201.10609v1
- Date: Tue, 11 Jan 2022 05:57:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-30 13:51:16.336607
- Title: Exploiting Hybrid Models of Tensor-Train Networks for Spoken Command
Recognition
- Title(参考訳): 音声コマンド認識のためのテンソルトレインネットワークのハイブリッドモデルの構築
- Authors: Jun Qi, Javier Tejedor
- Abstract要約: 本研究の目的は,低複雑性音声コマンド認識(SCR)システムの設計である。
我々は、テンソルトレイン(TT)ネットワークの深いハイブリッドアーキテクチャを利用して、エンドツーエンドのSRCパイプラインを構築する。
提案したCNN+(TT-DNN)モデルでは,CNNモデルより4倍少ないモデルパラメータで96.31%の競争精度が得られる。
- 参考スコア(独自算出の注目度): 9.262289183808035
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This work aims to design a low complexity spoken command recognition (SCR)
system by considering different trade-offs between the number of model
parameters and classification accuracy. More specifically, we exploit a deep
hybrid architecture of a tensor-train (TT) network to build an end-to-end SRC
pipeline. Our command recognition system, namely CNN+(TT-DNN), is composed of
convolutional layers at the bottom for spectral feature extraction and TT
layers at the top for command classification. Compared with a traditional
end-to-end CNN baseline for SCR, our proposed CNN+(TT-DNN) model replaces fully
connected (FC) layers with TT ones and it can substantially reduce the number
of model parameters while maintaining the baseline performance of the CNN
model. We initialize the CNN+(TT-DNN) model in a randomized manner or based on
a well-trained CNN+DNN, and assess the CNN+(TT-DNN) models on the Google Speech
Command Dataset. Our experimental results show that the proposed CNN+(TT-DNN)
model attains a competitive accuracy of 96.31% with 4 times fewer model
parameters than the CNN model. Furthermore, the CNN+(TT-DNN) model can obtain a
97.2% accuracy when the number of parameters is increased.
- Abstract(参考訳): 本研究の目的は,モデルパラメータ数と分類精度のトレードオフを考慮し,低複雑性音声コマンド認識(SCR)システムを設計することである。
具体的には、テンソルトレイン(TT)ネットワークの深いハイブリッドアーキテクチャを利用して、エンドツーエンドのSRCパイプラインを構築します。
我々のコマンド認識システムであるCNN+(TT-DNN)は、スペクトル特徴抽出のための下部の畳み込み層と、コマンド分類のための上部のTT層で構成されている。
提案するCNN+(TT-DNN)モデルでは,従来のCNNベースラインと比較して,完全連結(FC)層をTTモデルに置き換えることができ,CNNモデルのベースライン性能を維持しながら,モデルパラメータの大幅な削減が可能である。
我々は、CNN+(TT-DNN)モデルをランダムに初期化し、あるいはよく訓練されたCNN+DNNに基づいて、Google Speech Command Dataset上でCNN+(TT-DNN)モデルを評価する。
実験の結果,提案したCNN+(TT-DNN)モデルでは,CNNモデルよりも4倍少ないモデルパラメータで96.31%の競争精度が得られた。
さらに、パラメータ数が増加するとCNN+(TT-DNN)モデルは97.2%の精度が得られる。
関連論文リスト
- Model Parallel Training and Transfer Learning for Convolutional Neural Networks by Domain Decomposition [0.0]
ディープ畳み込みニューラルネットワーク(CNN)は、幅広い画像処理アプリケーションで非常に成功したことが示されている。
モデルパラメータの増大と大量のトレーニングデータの増加により、複雑なCNNを効率的に訓練するための並列化戦略が必要である。
論文 参考訳(メタデータ) (2024-08-26T17:35:01Z) - CNN2GNN: How to Bridge CNN with GNN [59.42117676779735]
蒸留によりCNNとGNNを統一する新しいCNN2GNNフレームワークを提案する。
Mini-ImageNetにおける蒸留ブースターの2層GNNの性能は、ResNet152のような数十層を含むCNNよりもはるかに高い。
論文 参考訳(メタデータ) (2024-04-23T08:19:08Z) - Patching Weak Convolutional Neural Network Models through Modularization
and Composition [19.986199290508925]
分類タスクのための畳み込みニューロンネットワーク(CNN)モデルは、しばしば不満足に機能する。
圧縮モジュラー化手法であるCNNSplitterを提案し、$N$クラス分類のための強力なCNNモデルを$N$より小さなCNNモジュールに分解する。
CNNSplitterは、モジュール化と構成により弱いCNNモデルにパッチを適用できることを示し、ロバストなCNNモデルを開発するための新しいソリューションを提供する。
論文 参考訳(メタデータ) (2022-09-11T15:26:16Z) - Exploiting Low-Rank Tensor-Train Deep Neural Networks Based on
Riemannian Gradient Descent With Illustrations of Speech Processing [74.31472195046099]
我々は、低ランクテンソルトレイン深層ニューラルネットワーク(TT-DNN)を用いて、エンドツーエンドのディープラーニングパイプライン、すなわちLR-TT-DNNを構築する。
LR-TT-DNNと畳み込みニューラルネットワーク(CNN)を組み合わせたハイブリッドモデルを構築し、性能を向上する。
我々の実証的な証拠は、モデルパラメータが少ないLR-TT-DNNとCNN+(LR-TT-DNN)モデルが、TT-DNNとCNN+(LR-TT-DNN)モデルよりも優れていることを示している。
論文 参考訳(メタデータ) (2022-03-11T15:55:34Z) - ANNETTE: Accurate Neural Network Execution Time Estimation with Stacked
Models [56.21470608621633]
本稿では,アーキテクチャ検索を対象ハードウェアから切り離すための時間推定フレームワークを提案する。
提案手法は,マイクロカーネルと多層ベンチマークからモデルの集合を抽出し,マッピングとネットワーク実行時間推定のためのスタックモデルを生成する。
生成した混合モデルの推定精度と忠実度, 統計モデルとルーフラインモデル, 評価のための洗練されたルーフラインモデルを比較した。
論文 参考訳(メタデータ) (2021-05-07T11:39:05Z) - MGIC: Multigrid-in-Channels Neural Network Architectures [8.459177309094688]
本稿では,標準畳み込みニューラルネットワーク(CNN)におけるチャネル数に関して,パラメータ数の2次成長に対処するマルチグリッド・イン・チャネル手法を提案する。
近年の軽量CNNの成功にともなうCNNの冗長性に対処する。
論文 参考訳(メタデータ) (2020-11-17T11:29:10Z) - ACDC: Weight Sharing in Atom-Coefficient Decomposed Convolution [57.635467829558664]
我々は,CNNにおいて,畳み込みカーネル間の構造正則化を導入する。
我々はCNNがパラメータや計算量を劇的に減らして性能を維持していることを示す。
論文 参考訳(メタデータ) (2020-09-04T20:41:47Z) - Exploring Deep Hybrid Tensor-to-Vector Network Architectures for
Regression Based Speech Enhancement [53.47564132861866]
我々は、CNN-TTというハイブリッドアーキテクチャが、モデルパラメータを小さくして高品質な性能を維持することができることを見出した。
CNN-TTは、音声品質を改善するために、特徴抽出のために下部に複数の畳み込み層で構成されている。
論文 参考訳(メタデータ) (2020-07-25T22:21:05Z) - Approximation and Non-parametric Estimation of ResNet-type Convolutional
Neural Networks [52.972605601174955]
本稿では,ResNet型CNNが重要な関数クラスにおいて最小誤差率を達成可能であることを示す。
Barron と H'older のクラスに対する前述のタイプの CNN の近似と推定誤差率を導出する。
論文 参考訳(メタデータ) (2019-03-24T19:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。