論文の概要: Deep Residual Local Feature Learning for Speech Emotion Recognition
- arxiv url: http://arxiv.org/abs/2011.09767v1
- Date: Thu, 19 Nov 2020 11:04:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-23 21:35:02.733599
- Title: Deep Residual Local Feature Learning for Speech Emotion Recognition
- Title(参考訳): 音声感情認識のための深い局所的特徴学習
- Authors: Sattaya Singkul, Thakorn Chatchaisathaporn, Boontawee Suntisrivaraporn
and Kuntpong Woraratpanya
- Abstract要約: 音声感情認識(SER)は、コールセンターサービスのようなサービス効率を改善するために、今日ではグローバルビジネスにおいて重要な役割を担っている。
最近のSERはディープラーニングアプローチに基づいているが、ディープラーニングの効率はレイヤーの数に依存する。
本稿では,既存の局所特徴学習ブロック(LFLB)の再設計を提案する。
DeepResLFLBは3つのカスケードブロックからなる: LFLB、残留局所特徴学習ブロック(ResLFLB)、多層パーセプトロン(MLP)。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Speech Emotion Recognition (SER) is becoming a key role in global business
today to improve service efficiency, like call center services. Recent SERs
were based on a deep learning approach. However, the efficiency of deep
learning depends on the number of layers, i.e., the deeper layers, the higher
efficiency. On the other hand, the deeper layers are causes of a vanishing
gradient problem, a low learning rate, and high time-consuming. Therefore, this
paper proposed a redesign of existing local feature learning block (LFLB). The
new design is called a deep residual local feature learning block
(DeepResLFLB). DeepResLFLB consists of three cascade blocks: LFLB, residual
local feature learning block (ResLFLB), and multilayer perceptron (MLP). LFLB
is built for learning local correlations along with extracting hierarchical
correlations; DeepResLFLB can take advantage of repeatedly learning to explain
more detail in deeper layers using residual learning for solving vanishing
gradient and reducing overfitting; and MLP is adopted to find the relationship
of learning and discover probability for predicted speech emotions and gender
types. Based on two available published datasets: EMODB and RAVDESS, the
proposed DeepResLFLB can significantly improve performance when evaluated by
standard metrics: accuracy, precision, recall, and F1-score.
- Abstract(参考訳): コールセンターサービスのようなサービス効率を改善するため、今日のグローバルビジネスでは音声感情認識(ser)が重要な役割を担っている。
近年のSERはディープラーニングアプローチに基づいている。
しかし、ディープラーニングの効率性は、レイヤーの数、すなわち深いレイヤーの数、より高い効率に依存する。
一方,深い層は,勾配の消失,学習率の低下,高消費化の原因となっている。
そこで本稿では,既存の局所特徴学習ブロック (LFLB) の再設計を提案する。
この新しい設計は、deep residual local feature learning block (deepreslflb)と呼ばれる。
DeepResLFLBは、LFLB、残留局所特徴学習ブロック(ResLFLB)、多層パーセプトロン(MLP)の3つのカスケードブロックから構成される。
lflbは、階層的相関の抽出とともに局所相関の学習のために構築されており、deepreslflbは、脱落勾配の解消と過剰フィッティングの低減のために残差学習を使用して、深層でのより詳細な説明に繰り返し学習を活用できる。
emodb と ravdess という2つのデータセットに基づいて、提案された deepreslflb は、標準メトリクスで評価することで、パフォーマンスを大幅に向上させることができる。
関連論文リスト
- Scaling Supervised Local Learning with Augmented Auxiliary Networks [29.79621064772869]
本稿では,深層ニューラルネットワークのためのAugLocalと呼ばれる局所学習手法を提案する。
AugLocalは、BP学習ネットワークと同等の精度で、数十のローカルレイヤに効果的にスケールアップできることを示す。
提案したAugLocalメソッドは、リソース制約のあるプラットフォーム上で、高性能なディープニューラルネットワークをトレーニングする多くの機会を開放する。
論文 参考訳(メタデータ) (2024-02-27T08:50:45Z) - Cross-Layer Optimization for Fault-Tolerant Deep Learning [17.724727744611535]
本稿では、各ニューロンとビット間の深層学習の脆弱性差を特徴付けるとともに、その脆弱性差を利用してディープラーニング処理コンポーネントの選択的保護を実現することを提案する。
我々は,アルゴリズム層,アーキテクチャ層,回路層において相関する層間設計パラメータを協調最適化するためにベイズ最適化手法を用いる。
論文 参考訳(メタデータ) (2023-12-21T11:35:45Z) - Scaling Forward Gradient With Local Losses [117.22685584919756]
フォワード学習は、ディープニューラルネットワークを学ぶためのバックプロップに代わる生物学的に妥当な代替手段である。
重みよりも活性化に摂動を適用することにより、前方勾配のばらつきを著しく低減できることを示す。
提案手法はMNIST と CIFAR-10 のバックプロップと一致し,ImageNet 上で提案したバックプロップフリーアルゴリズムよりも大幅に優れていた。
論文 参考訳(メタデータ) (2022-10-07T03:52:27Z) - A Layer-Wise Information Reinforcement Approach to Improve Learning in
Deep Belief Networks [0.4893345190925178]
本稿では,情報強化層を層単位で検討し,特徴抽出と知識保持を改善するResidual Deep Belief Networkを提案する。
3つの公開データセットで実施した実験は、バイナリイメージ分類のタスクに関する堅牢性を示している。
論文 参考訳(メタデータ) (2021-01-17T18:53:18Z) - Why Layer-Wise Learning is Hard to Scale-up and a Possible Solution via
Accelerated Downsampling [19.025707054206457]
レイヤワイズ学習は、様々なデータセットのイメージ分類において最先端のパフォーマンスを達成することができる。
レイヤーワイズ学習のこれまでの研究は、単純な階層構造を持つネットワークに限られていた。
本稿では,浅層層における特徴空間の分離性が比較的低いため,階層学習のスケールアップを阻害する根本的な理由を明らかにする。
論文 参考訳(メタデータ) (2020-10-15T21:51:43Z) - Dual-constrained Deep Semi-Supervised Coupled Factorization Network with
Enriched Prior [80.5637175255349]
本稿では、DS2CF-Netと呼ばれる、拡張された事前制約付きDual-Constrained Deep Semi-Supervised Coupled Factorization Networkを提案する。
隠れた深い特徴を抽出するために、DS2CF-Netは、深い構造と幾何学的な構造に制約のあるニューラルネットワークとしてモデル化される。
我々のネットワークは、表現学習とクラスタリングのための最先端の性能を得ることができる。
論文 参考訳(メタデータ) (2020-09-08T13:10:21Z) - LoCo: Local Contrastive Representation Learning [93.98029899866866]
重なり合うローカルブロックが重なり合うことで、デコーダの深さを効果的に増加させ、上位ブロックが暗黙的に下位ブロックにフィードバックを送ることができることを示す。
このシンプルな設計は、ローカル学習とエンドツーエンドのコントラスト学習アルゴリズムのパフォーマンスギャップを初めて埋める。
論文 参考訳(メタデータ) (2020-08-04T05:41:29Z) - Meta-Gradient Reinforcement Learning with an Objective Discovered Online [54.15180335046361]
本稿では,深層ニューラルネットワークによって柔軟にパラメータ化される,自己目的のメタ段階的降下に基づくアルゴリズムを提案する。
目的はオンラインで発見されるため、時間とともに変化に適応することができる。
Atari Learning Environmentでは、メタグラディエントアルゴリズムが時間とともに適応して、より効率よく学習する。
論文 参考訳(メタデータ) (2020-07-16T16:17:09Z) - Is deeper better? It depends on locality of relevant features [5.33024001730262]
過パラメータ化方式における深さ増加の効果について検討する。
実験では、より深いラベルはローカルレーベルにとって、より浅いラベルはグローバルレーベルにとって、より優れていることが示されている。
ニューラルネットワークは、一般化性能の深さ依存性を正しく捉えていない。
論文 参考訳(メタデータ) (2020-05-26T02:44:18Z) - Global Context-Aware Progressive Aggregation Network for Salient Object
Detection [117.943116761278]
我々は,低レベルな外観特徴,高レベルな意味特徴,グローバルな文脈特徴を統合化するための新しいネットワークGCPANetを提案する。
提案手法は, 定量的かつ定性的に, 最先端の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-03-02T04:26:10Z) - Dense Residual Network: Enhancing Global Dense Feature Flow for
Character Recognition [75.4027660840568]
本稿では,すべての畳み込み層から階層的特徴をフルに活用することにより,局所的・大域的特徴フローを改善する方法について検討する。
技術的には、テキスト認識のための効率的で効果的なCNNフレームワークであるFDRN(Fast Dense Residual Network)を提案する。
論文 参考訳(メタデータ) (2020-01-23T06:55:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。