論文の概要: Learning More with Less: Self-Supervised Approaches for Low-Resource Speech Emotion Recognition
- arxiv url: http://arxiv.org/abs/2506.02059v1
- Date: Sun, 01 Jun 2025 15:49:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-04 21:47:34.886354
- Title: Learning More with Less: Self-Supervised Approaches for Low-Resource Speech Emotion Recognition
- Title(参考訳): 低音源音声感情認識のための自己監督的アプローチ
- Authors: Ziwei Gong, Pengyuan Shi, Kaan Donbekci, Lin Ai, Run Chen, David Sasu, Zehui Wu, Julia Hirschberg,
- Abstract要約: 音声感情認識(SER)は、ディープラーニングにおいて大きな進歩を遂げているが、注釈付きデータの不足により、低リソース言語(LRL)では依然として困難である。
言語間の一般化を促進する自己指導的アプローチとして,コントラスト学習 (CL) とBootstrap Your Own Latent (BYOL) を検討した。
提案手法はウルドゥー語で10.6%,ドイツ語で15.2%,バングラ語で13.9%,LRLでの有効性を示した。
- 参考スコア(独自算出の注目度): 3.238386017351513
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Speech Emotion Recognition (SER) has seen significant progress with deep learning, yet remains challenging for Low-Resource Languages (LRLs) due to the scarcity of annotated data. In this work, we explore unsupervised learning to improve SER in low-resource settings. Specifically, we investigate contrastive learning (CL) and Bootstrap Your Own Latent (BYOL) as self-supervised approaches to enhance cross-lingual generalization. Our methods achieve notable F1 score improvements of 10.6% in Urdu, 15.2% in German, and 13.9% in Bangla, demonstrating their effectiveness in LRLs. Additionally, we analyze model behavior to provide insights on key factors influencing performance across languages, and also highlighting challenges in low-resource SER. This work provides a foundation for developing more inclusive, explainable, and robust emotion recognition systems for underrepresented languages.
- Abstract(参考訳): 音声感情認識(SER)は、ディープラーニングにおいて大きな進歩を遂げているが、注釈付きデータの不足により、低リソース言語(LRL)では依然として困難である。
本研究では,低リソース環境下でSERを改善するための教師なし学習について検討する。
具体的には,比較学習(CL)とBootstrap Your Own Latent(BYOL)を,言語間の一般化を促進する自己指導的アプローチとして検討する。
提案手法はウルドゥー語で10.6%,ドイツ語で15.2%,バングラ語で13.9%,LRLでの有効性を示した。
さらに、モデル行動を分析し、言語間のパフォーマンスに影響を与える重要な要因についての洞察を提供するとともに、低リソースSERにおける課題を強調します。
この研究は、未表現言語のためのより包括的で説明可能な、堅牢な感情認識システムを開発するための基盤を提供する。
関連論文リスト
- Exploring the Impact of Data Quantity on ASR in Extremely Low-resource Languages [24.856817602140193]
この研究は、2つの絶滅危惧言語であるAmisとSediqに焦点を当てている。
本稿では,多言語コーパスを利用して対象とする限られた言語データを増やす新しいデータ選択手法を提案する。
論文 参考訳(メタデータ) (2024-09-13T14:35:47Z) - 1+1>2: Can Large Language Models Serve as Cross-Lingual Knowledge Aggregators? [46.43162333819418]
大規模言語モデル(LLM)は、様々な言語にまたがって情報を処理できることから、大きな注目を集めている。
それらの能力にもかかわらず、異なる言語で同じクエリを扱うことに矛盾を示し、さらなる進歩のための課題を提示している。
本稿では,多言語からの知識を集約することで,LLMの多言語的性能を向上させる手法を提案する。
論文 参考訳(メタデータ) (2024-06-20T20:32:53Z) - LLMs Are Few-Shot In-Context Low-Resource Language Learners [59.74451570590808]
In-context Learning (ICL) は、大規模言語モデル(LLM)に、表現不足の言語で多様なタスクを実行する権限を与える。
ICLとその言語間変動(X-ICL)を25の低リソース言語と7の比較的高リソース言語で検討した。
本研究は,LLMの低リソース理解品質向上における文脈内情報の重要性を論じる。
論文 参考訳(メタデータ) (2024-03-25T07:55:29Z) - From Classification to Generation: Insights into Crosslingual Retrieval
Augmented ICL [8.065775937617417]
クロスランガル検索強化インコンテキスト学習(CREA-ICL)を利用した新しい手法を提案する。
高ソース言語から意味論的に類似したプロンプトを抽出することにより、多言語事前学習言語モデル(MPLM)のゼロショット性能の向上を目指す。
我々の手法は分類タスクを着実に改善するが、生成タスクでは課題に直面している。
論文 参考訳(メタデータ) (2023-11-11T15:40:21Z) - Democratizing LLMs for Low-Resource Languages by Leveraging their English Dominant Abilities with Linguistically-Diverse Prompts [75.33019401706188]
大規模言語モデル(LLM)は、少数の例を単純に観察することで、効果的にタスクを実行することが知られている。
我々は,LLMが任意の言語から英語に翻訳するよう促すために,多種多様な高ソース言語から合成例を組み立てることを提案する。
我々の教師なしプロンプト法は、英語と13のIndic言語と21のアフリカ低リソース言語間の翻訳において、異なる大きさのLLMにおける教師付き少ショット学習と同等に機能する。
論文 参考訳(メタデータ) (2023-06-20T08:27:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。