論文の概要: Cross Lingual Cross Corpus Speech Emotion Recognition
- arxiv url: http://arxiv.org/abs/2003.07996v1
- Date: Wed, 18 Mar 2020 00:23:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-22 13:10:14.487381
- Title: Cross Lingual Cross Corpus Speech Emotion Recognition
- Title(参考訳): クロスリンガルクロスコーパス音声の感情認識
- Authors: Shivali Goel (1), Homayoon Beigi (1 and 2) ((1) Department of Computer
Science, Columbia University, (2) Recognition Technologies, Inc., South
Salem, New York, United States)
- Abstract要約: 本稿では,単一コーパスとクロスコーパス設定の両方において,4言語を対象とした音声感情認識の結果について述べる。
ジェンダー,自然性,覚醒を伴うマルチタスク学習(MTL)は,感情モデルの一般化能力を高めることが示されているため,本稿では,MTLフレームワークのもう一つの補助課題として言語IDを導入する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The majority of existing speech emotion recognition models are trained and
evaluated on a single corpus and a single language setting. These systems do
not perform as well when applied in a cross-corpus and cross-language scenario.
This paper presents results for speech emotion recognition for 4 languages in
both single corpus and cross corpus setting. Additionally, since multi-task
learning (MTL) with gender, naturalness and arousal as auxiliary tasks has
shown to enhance the generalisation capabilities of the emotion models, this
paper introduces language ID as another auxiliary task in MTL framework to
explore the role of spoken language on emotion recognition which has not been
studied yet.
- Abstract(参考訳): 既存の音声感情認識モデルの大部分は、単一のコーパスと単一の言語設定で訓練され、評価される。
これらのシステムは、クロスコーポレートかつクロス言語シナリオに適用された場合、うまく機能しない。
本稿では,単一コーパスとクロスコーパスのいずれにおいても,4言語における音声感情認識の結果について述べる。
さらに,ジェンダー,自然性,覚醒を補助課題とするマルチタスク学習(MTL)は,感情モデルの一般化能力を高めることが示されており,本研究では,まだ研究されていない感情認識における音声言語の役割を探るため,MTLフレームワークのもう一つの補助課題として言語IDを導入する。
関連論文リスト
- Human-LLM Collaborative Construction of a Cantonese Emotion Lexicon [1.3074442742310615]
本研究では,低リソース言語であるCantoneseのための感情辞書を開発することを提案する。
LLM(Large Language Models)と人間のアノテータによって提供される感情ラベルを統合することで、既存の言語資源を活用している。
感情抽出における感情レキシコンの整合性は、3つの異なる感情テキストデータセットの修正と利用によって評価された。
論文 参考訳(メタデータ) (2024-10-15T11:57:34Z) - Label Aware Speech Representation Learning For Language Identification [49.197215416945596]
本稿では,自己指導型表現学習と事前学習タスクのための言語ラベル情報を組み合わせた新しいフレームワークを提案する。
このフレームワークは、ラベル認識音声表現(LASR)学習と呼ばれ、三重項に基づく目的関数を使用して、言語ラベルと自己教師付き損失関数を組み込む。
論文 参考訳(メタデータ) (2023-06-07T12:14:16Z) - Multilingual Multi-Figurative Language Detection [14.799109368073548]
比喩的言語理解は多言語環境では 非常に過小評価されています
我々は,多言語多言語言語モデリングを導入し,文レベル図形言語検出のためのベンチマークを提供する。
テンプレートに基づく即時学習に基づく図形言語検出のためのフレームワークを開発する。
論文 参考訳(メタデータ) (2023-05-31T18:52:41Z) - A Corpus for Sentence-level Subjectivity Detection on English News Articles [49.49218203204942]
我々はこのガイドラインを用いて、議論を呼んだ話題に関する英ニュース記事から抽出した638の目的語と411の主観的な文からなるNewsSD-ENGを収集する。
我々のコーパスは、語彙や機械翻訳といった言語固有のツールに頼ることなく、英語で主観的検出を行う方法を舗装している。
論文 参考訳(メタデータ) (2023-05-29T11:54:50Z) - MoLE : Mixture of Language Experts for Multi-Lingual Automatic Speech
Recognition [12.23416994447554]
我々はMixture-of-Language-Expert(MoLE)という多言語音声認識ネットワークを提案する。
MoLEは、任意の言語で入力された音声から言語表現を分析し、軽量な言語トークン化器で言語固有の専門家を活性化する。
信頼性に基づいて、アクティベートされた専門家と言語に依存しない専門家を集約し、言語条件の埋め込みを表現する。
論文 参考訳(メタデータ) (2023-02-27T13:26:17Z) - Multilingual Speech Emotion Recognition With Multi-Gating Mechanism and
Neural Architecture Search [15.51730246937201]
SERは、音声をHappy、Angry、Fear、Disgust、Neutralなどの感情カテゴリーに分類する。
本稿では,複数の事前学習された音声モデルから感情情報を抽出する言語特化モデルを提案する。
我々のモデルは、ドイツ語では3%、フランス語では14.3%の精度で最先端の精度を上げる。
論文 参考訳(メタデータ) (2022-10-31T19:55:33Z) - Self-Supervised Speech Representation Learning: A Review [105.1545308184483]
自己教師付き表現学習法は、幅広いタスクやドメインに利益をもたらす単一の普遍的モデルを約束する。
音声表現学習は、生成的、コントラスト的、予測的という3つの主要なカテゴリで同様の進歩を経験している。
本稿では,自己指導型音声表現学習のアプローチと,他の研究領域との関係について述べる。
論文 参考訳(メタデータ) (2022-05-21T16:52:57Z) - AM2iCo: Evaluating Word Meaning in Context across Low-ResourceLanguages
with Adversarial Examples [51.048234591165155]
本稿では, AM2iCo, Adversarial and Multilingual Meaning in Contextを提案する。
言語間文脈における単語の意味の同一性を理解するために、最先端(SotA)表現モデルを忠実に評価することを目的としている。
その結果、現在のSotAプリトレーニングエンコーダは人間のパフォーマンスにかなり遅れていることが明らかとなった。
論文 参考訳(メタデータ) (2021-04-17T20:23:45Z) - Limited Data Emotional Voice Conversion Leveraging Text-to-Speech:
Two-stage Sequence-to-Sequence Training [91.95855310211176]
感情的音声変換は、言語内容と話者のアイデンティティを保ちながら、発話の感情状態を変えることを目的としている。
本研究では,感情音声データ量の少ない連続音声変換のための新しい2段階学習戦略を提案する。
提案フレームワークはスペクトル変換と韻律変換の両方が可能であり、客観的評価と主観評価の両方において最先端のベースラインを大幅に改善する。
論文 参考訳(メタデータ) (2021-03-31T04:56:14Z) - VECO: Variable and Flexible Cross-lingual Pre-training for Language
Understanding and Generation [77.82373082024934]
我々はTransformerエンコーダにクロスアテンションモジュールを挿入し、言語間の相互依存を明確に構築する。
独自の言語でコンテキストにのみ条件付けされたマスク付き単語の予測の退化を効果的に回避することができる。
提案した言語間モデルでは,XTREMEベンチマークのさまざまな言語間理解タスクに対して,最先端の新たな結果が提供される。
論文 参考訳(メタデータ) (2020-10-30T03:41:38Z) - Multi-Task Learning with Auxiliary Speaker Identification for
Conversational Emotion Recognition [32.439818455554885]
話者識別(SI)を補助課題として活用し,会話における発話表現を強化する。
この方法により、追加のSIコーパスから話者認識型文脈表現を学習できる。
2つのベンチマークデータセットの実験では、提案されたアーキテクチャがCERに非常に有効であることが示されている。
論文 参考訳(メタデータ) (2020-03-03T12:25:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。