論文の概要: A cross-corpus study on speech emotion recognition
- arxiv url: http://arxiv.org/abs/2207.02104v1
- Date: Tue, 5 Jul 2022 15:15:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-06 15:24:41.801908
- Title: A cross-corpus study on speech emotion recognition
- Title(参考訳): 音声感情認識に関するクロスコーパス研究
- Authors: Rosanna Milner, Md Asif Jalal, Raymond W. M. Ng, Thomas Hain
- Abstract要約: 本研究では,行動感情から学習した情報が,自然感情の検出に有用かどうかを検討する。
成人英語の4つのデータセットは、行動的、誘惑的、自然な感情をカバーしている。
性能劣化を正確に調査するための最先端モデルを提案する。
- 参考スコア(独自算出の注目度): 29.582678406878568
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: For speech emotion datasets, it has been difficult to acquire large
quantities of reliable data and acted emotions may be over the top compared to
less expressive emotions displayed in everyday life. Lately, larger datasets
with natural emotions have been created. Instead of ignoring smaller, acted
datasets, this study investigates whether information learnt from acted
emotions is useful for detecting natural emotions. Cross-corpus research has
mostly considered cross-lingual and even cross-age datasets, and difficulties
arise from different methods of annotating emotions causing a drop in
performance. To be consistent, four adult English datasets covering acted,
elicited and natural emotions are considered. A state-of-the-art model is
proposed to accurately investigate the degradation of performance. The system
involves a bi-directional LSTM with an attention mechanism to classify emotions
across datasets. Experiments study the effects of training models in a
cross-corpus and multi-domain fashion and results show the transfer of
information is not successful. Out-of-domain models, followed by adapting to
the missing dataset, and domain adversarial training (DAT) are shown to be more
suitable to generalising to emotions across datasets. This shows positive
information transfer from acted datasets to those with more natural emotions
and the benefits from training on different corpora.
- Abstract(参考訳): 音声感情データセットでは、大量の信頼できるデータを取得することは困難であり、行動的感情は、日常生活に表示される表現力の少ない感情よりも上位にある可能性がある。
近年、自然な感情を持つより大きなデータセットが作成されている。
本研究は,より小さな行動型データセットを無視する代わりに,行動型感情から学習した情報が自然な感情の検出に有用かどうかを検討する。
クロスコーパス研究は、主にクロスランガルデータセットやクロスエイジデータセットも検討しており、パフォーマンス低下の原因となる感情の注釈付け方法の違いから困難が生じる。
一貫性のため、行動、誘発、自然の感情をカバーする4つの成人英語データセットが検討されている。
性能劣化を正確に調査するための最先端モデルを提案する。
このシステムは、データセット間で感情を分類するアテンションメカニズムを備えた双方向LSTMを含んでいる。
クロスコーポレート・マルチドメイン方式におけるトレーニングモデルの効果を実験により検討し,情報伝達が成功しないことを示す。
ドメイン外のモデルに続き、欠落したデータセットに適応し、ドメイン敵トレーニング(DAT)はデータセット全体の感情に一般化するのにより適している。
これは、行動するデータセットからより自然な感情を持つものへのポジティブな情報転送と、異なるコーパスでのトレーニングの利点を示している。
関連論文リスト
- Data Augmentation for Emotion Detection in Small Imbalanced Text Data [0.0]
課題の1つは、感情で注釈付けされた利用可能なデータセットが不足していることだ。
我々は、小さな不均衡なデータセットに適用した場合に、データ拡張技術が与える影響を正確に調査した。
実験結果から,分類器モデルの訓練に拡張データを用いることで,大幅な改善が得られた。
論文 参考訳(メタデータ) (2023-10-25T21:29:36Z) - Dynamic Causal Disentanglement Model for Dialogue Emotion Detection [77.96255121683011]
隠れ変数分離に基づく動的因果解離モデルを提案する。
このモデルは、対話の内容を効果的に分解し、感情の時間的蓄積を調べる。
具体的には,発話と隠れ変数の伝搬を推定する動的時間的ゆがみモデルを提案する。
論文 参考訳(メタデータ) (2023-09-13T12:58:09Z) - Implicit Design Choices and Their Impact on Emotion Recognition Model
Development and Evaluation [5.534160116442057]
感情の主観性は、正確で堅牢な計算モデルを開発する上で大きな課題を生じさせる。
この論文は、多様なデータセットの収集から始まる感情認識の批判的な側面を調べる。
非表現的トレーニングデータの課題に対処するため、この研究はマルチモーダルストレス感情データセットを収集する。
論文 参考訳(メタデータ) (2023-09-06T02:45:42Z) - Learning Emotion Representations from Verbal and Nonverbal Communication [7.747924294389427]
本稿では,言語・非言語コミュニケーションから視覚的感情表現を抽出する最初の事前学習パラダイムであるEmotionCLIPを提案する。
EmotionCLIPは、感情誘導型コントラスト学習を用いて、主観的文脈エンコーディングと言語感情キューを通じて、非言語感情キューへの参加を誘導する。
EmotionCLIPは、感情理解におけるデータ不足の一般的な問題に対処し、関連する領域の進歩を促進する。
論文 参考訳(メタデータ) (2023-05-22T21:36:55Z) - SOLVER: Scene-Object Interrelated Visual Emotion Reasoning Network [83.27291945217424]
画像から感情を予測するために,SOLVER(Scene-Object Interrelated Visual Emotion Reasoning Network)を提案する。
異なるオブジェクト間の感情関係を掘り下げるために、まずセマンティックな概念と視覚的特徴に基づいて感情グラフを構築します。
また、シーンとオブジェクトを統合するScene-Object Fusion Moduleを設計し、シーンの特徴を利用して、提案したシーンベースのアテンションメカニズムでオブジェクトの特徴の融合プロセスを導出する。
論文 参考訳(メタデータ) (2021-10-24T02:41:41Z) - A Circular-Structured Representation for Visual Emotion Distribution
Learning [82.89776298753661]
視覚的感情分布学習に先立つ知識を活用するために,身近な円形構造表現を提案する。
具体的には、まず感情圏を構築し、その内にある感情状態を統一する。
提案した感情圏では、各感情分布は3つの属性で定義される感情ベクトルで表される。
論文 参考訳(メタデータ) (2021-06-23T14:53:27Z) - Enhancing Cognitive Models of Emotions with Representation Learning [58.2386408470585]
本稿では,きめ細かな感情の埋め込み表現を生成するための,新しいディープラーニングフレームワークを提案する。
本フレームワークは,コンテキスト型埋め込みエンコーダとマルチヘッド探索モデルを統合する。
本モデルは共感対話データセット上で評価され,32種類の感情を分類する最新結果を示す。
論文 参考訳(メタデータ) (2021-04-20T16:55:15Z) - Modality-Transferable Emotion Embeddings for Low-Resource Multimodal
Emotion Recognition [55.44502358463217]
本稿では、上記の問題に対処するため、感情を埋め込んだモダリティ変換可能なモデルを提案する。
我々のモデルは感情カテゴリーのほとんどで最先端のパフォーマンスを達成する。
私たちのモデルは、目に見えない感情に対するゼロショットと少数ショットのシナリオにおいて、既存のベースラインよりも優れています。
論文 参考訳(メタデータ) (2020-09-21T06:10:39Z) - Meta Transfer Learning for Emotion Recognition [42.61707533351803]
本研究では、ある視覚的/聴覚的感情領域から学習した感情知識を、別の視覚的/聴覚的感情領域に伝達できるPathNetに基づく伝達学習手法を提案する。
提案システムは感情認識の性能を向上し,最近提案された微調整/事前学習モデルに基づく伝達学習手法よりも性能が大幅に向上する。
論文 参考訳(メタデータ) (2020-06-23T00:25:28Z) - Context Based Emotion Recognition using EMOTIC Dataset [22.631542327834595]
EMOTIC(エモティック)は, 感情に注意を喚起された人々のイメージのデータセットである。
EMOTICデータセットを使用して、感情認識のためのさまざまなCNNモデルをトレーニングする。
その結果,情緒状態を自動的に認識するためにシーンコンテキストが重要な情報を提供することを示す。
論文 参考訳(メタデータ) (2020-03-30T12:38:50Z) - Emotion Recognition From Gait Analyses: Current Research and Future
Directions [48.93172413752614]
歩行はウォーカーの感情に関する情報を伝える
様々な感情と歩行パターンのマッピングは、感情の自動認識のための新しい情報源を提供する。
歩行は遠隔観察可能で 模倣が困難で 被験者との協力も少ない
論文 参考訳(メタデータ) (2020-03-13T08:22:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。