論文の概要: Deep Residual Local Feature Learning for Speech Emotion Recognition
- arxiv url: http://arxiv.org/abs/2011.09767v1
- Date: Thu, 19 Nov 2020 11:04:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-23 21:35:02.733599
- Title: Deep Residual Local Feature Learning for Speech Emotion Recognition
- Title(参考訳): 音声感情認識のための深い局所的特徴学習
- Authors: Sattaya Singkul, Thakorn Chatchaisathaporn, Boontawee Suntisrivaraporn
and Kuntpong Woraratpanya
- Abstract要約: 音声感情認識(SER)は、コールセンターサービスのようなサービス効率を改善するために、今日ではグローバルビジネスにおいて重要な役割を担っている。
最近のSERはディープラーニングアプローチに基づいているが、ディープラーニングの効率はレイヤーの数に依存する。
本稿では,既存の局所特徴学習ブロック(LFLB)の再設計を提案する。
DeepResLFLBは3つのカスケードブロックからなる: LFLB、残留局所特徴学習ブロック(ResLFLB)、多層パーセプトロン(MLP)。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Speech Emotion Recognition (SER) is becoming a key role in global business
today to improve service efficiency, like call center services. Recent SERs
were based on a deep learning approach. However, the efficiency of deep
learning depends on the number of layers, i.e., the deeper layers, the higher
efficiency. On the other hand, the deeper layers are causes of a vanishing
gradient problem, a low learning rate, and high time-consuming. Therefore, this
paper proposed a redesign of existing local feature learning block (LFLB). The
new design is called a deep residual local feature learning block
(DeepResLFLB). DeepResLFLB consists of three cascade blocks: LFLB, residual
local feature learning block (ResLFLB), and multilayer perceptron (MLP). LFLB
is built for learning local correlations along with extracting hierarchical
correlations; DeepResLFLB can take advantage of repeatedly learning to explain
more detail in deeper layers using residual learning for solving vanishing
gradient and reducing overfitting; and MLP is adopted to find the relationship
of learning and discover probability for predicted speech emotions and gender
types. Based on two available published datasets: EMODB and RAVDESS, the
proposed DeepResLFLB can significantly improve performance when evaluated by
standard metrics: accuracy, precision, recall, and F1-score.
- Abstract(参考訳): コールセンターサービスのようなサービス効率を改善するため、今日のグローバルビジネスでは音声感情認識(ser)が重要な役割を担っている。
近年のSERはディープラーニングアプローチに基づいている。
しかし、ディープラーニングの効率性は、レイヤーの数、すなわち深いレイヤーの数、より高い効率に依存する。
一方,深い層は,勾配の消失,学習率の低下,高消費化の原因となっている。
そこで本稿では,既存の局所特徴学習ブロック (LFLB) の再設計を提案する。
この新しい設計は、deep residual local feature learning block (deepreslflb)と呼ばれる。
DeepResLFLBは、LFLB、残留局所特徴学習ブロック(ResLFLB)、多層パーセプトロン(MLP)の3つのカスケードブロックから構成される。
lflbは、階層的相関の抽出とともに局所相関の学習のために構築されており、deepreslflbは、脱落勾配の解消と過剰フィッティングの低減のために残差学習を使用して、深層でのより詳細な説明に繰り返し学習を活用できる。
emodb と ravdess という2つのデータセットに基づいて、提案された deepreslflb は、標準メトリクスで評価することで、パフォーマンスを大幅に向上させることができる。
関連論文リスト
- Llama SLayer 8B: Shallow Layers Hold the Key to Knowledge Injection [73.06596715100859]
知識注入のための最適層範囲の探索における各層の重要性について検討する。
本研究では,浅層を選択的に強化し,有効でない深層を刈り取るための事前学習戦略であるS戦略を提案する。
この戦略に基づき,Llama Slayer-8BとLlama Slayer-8B-Instructを導入する。
論文 参考訳(メタデータ) (2024-10-03T09:28:59Z) - Distance-Forward Learning: Enhancing the Forward-Forward Algorithm Towards High-Performance On-Chip Learning [20.037634881772842]
バックプロパゲーション(BP)の限界に対処する局所学習手法として,フォワードフォワード(FF)アルゴリズムが最近提案されている。
距離メトリック学習を用いてFFを再構成し、教師付き視覚タスクにおけるFF性能を改善するための距離フォワードアルゴリズム(DF)を提案する。
CIFAR-10では88.2%、CIFAR-100では59%、SVHNでは95.9%、ImageNetteでは82.5%である。
論文 参考訳(メタデータ) (2024-08-27T10:01:43Z) - R-SFLLM: Jamming Resilient Framework for Split Federated Learning with Large Language Models [83.77114091471822]
Split Federated Learning (SFL)は、分散機械学習(ML)における計算効率のパラダイムである。
SFLの課題は、特に無線チャネル上に展開する場合、送信されたモデルパラメータが相手のジャミングに感受性を持つことである。
これは、言語理解に不可欠である大規模言語モデル(LLM)における単語埋め込みパラメータに対して特に顕著である。
無線ネットワーク上でのLLM(R-SFLLM)を用いたレジリエンスSFLのための物理層フレームワークを開発した。
論文 参考訳(メタデータ) (2024-07-16T12:21:29Z) - Towards Interpretable Deep Local Learning with Successive Gradient Reconciliation [70.43845294145714]
グローバルバックプロパゲーション(BP)に対するニューラルネットワークトレーニングの信頼性の回復が、注目すべき研究トピックとして浮上している。
本稿では,隣接モジュール間の勾配調整を連続的に調整する局所的学習戦略を提案する。
提案手法はローカルBPとBPフリー設定の両方に統合できる。
論文 参考訳(メタデータ) (2024-06-07T19:10:31Z) - Scaling Supervised Local Learning with Augmented Auxiliary Networks [29.79621064772869]
本稿では,深層ニューラルネットワークのためのAugLocalと呼ばれる局所学習手法を提案する。
AugLocalは、BP学習ネットワークと同等の精度で、数十のローカルレイヤに効果的にスケールアップできることを示す。
提案したAugLocalメソッドは、リソース制約のあるプラットフォーム上で、高性能なディープニューラルネットワークをトレーニングする多くの機会を開放する。
論文 参考訳(メタデータ) (2024-02-27T08:50:45Z) - Improving Deep Representation Learning via Auxiliary Learnable Target Coding [69.79343510578877]
本稿では,深層表現学習の補助的正規化として,新たな学習対象符号化を提案する。
具体的には、より差別的な表現を促進するために、マージンベースの三重項損失と、提案した目標符号上の相関整合損失を設計する。
論文 参考訳(メタデータ) (2023-05-30T01:38:54Z) - A Layer-Wise Information Reinforcement Approach to Improve Learning in
Deep Belief Networks [0.4893345190925178]
本稿では,情報強化層を層単位で検討し,特徴抽出と知識保持を改善するResidual Deep Belief Networkを提案する。
3つの公開データセットで実施した実験は、バイナリイメージ分類のタスクに関する堅牢性を示している。
論文 参考訳(メタデータ) (2021-01-17T18:53:18Z) - Why Layer-Wise Learning is Hard to Scale-up and a Possible Solution via
Accelerated Downsampling [19.025707054206457]
レイヤワイズ学習は、様々なデータセットのイメージ分類において最先端のパフォーマンスを達成することができる。
レイヤーワイズ学習のこれまでの研究は、単純な階層構造を持つネットワークに限られていた。
本稿では,浅層層における特徴空間の分離性が比較的低いため,階層学習のスケールアップを阻害する根本的な理由を明らかにする。
論文 参考訳(メタデータ) (2020-10-15T21:51:43Z) - Meta-Gradient Reinforcement Learning with an Objective Discovered Online [54.15180335046361]
本稿では,深層ニューラルネットワークによって柔軟にパラメータ化される,自己目的のメタ段階的降下に基づくアルゴリズムを提案する。
目的はオンラインで発見されるため、時間とともに変化に適応することができる。
Atari Learning Environmentでは、メタグラディエントアルゴリズムが時間とともに適応して、より効率よく学習する。
論文 参考訳(メタデータ) (2020-07-16T16:17:09Z) - Dense Residual Network: Enhancing Global Dense Feature Flow for
Character Recognition [75.4027660840568]
本稿では,すべての畳み込み層から階層的特徴をフルに活用することにより,局所的・大域的特徴フローを改善する方法について検討する。
技術的には、テキスト認識のための効率的で効果的なCNNフレームワークであるFDRN(Fast Dense Residual Network)を提案する。
論文 参考訳(メタデータ) (2020-01-23T06:55:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。