論文の概要: From Joy to Fear: A Benchmark of Emotion Estimation in Pop Song Lyrics
- arxiv url: http://arxiv.org/abs/2509.05617v1
- Date: Sat, 06 Sep 2025 06:28:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-09 14:07:03.614913
- Title: From Joy to Fear: A Benchmark of Emotion Estimation in Pop Song Lyrics
- Title(参考訳): Joy to Fear: ポップソング歌詞における感情推定のベンチマーク
- Authors: Shay Dahary, Avi Edana, Alexander Apartsin, Yehudit Aperstein,
- Abstract要約: 歌詞の感情的内容は、聴取者の体験を形作り、音楽的嗜好に影響を与える上で重要な役割を担っている。
本稿では,6つの基本感情に対応する6つの感情強度スコアを予測し,歌詞のマルチラベル感情属性の課題について検討する。
- 参考スコア(独自算出の注目度): 40.12543056558646
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The emotional content of song lyrics plays a pivotal role in shaping listener experiences and influencing musical preferences. This paper investigates the task of multi-label emotional attribution of song lyrics by predicting six emotional intensity scores corresponding to six fundamental emotions. A manually labeled dataset is constructed using a mean opinion score (MOS) approach, which aggregates annotations from multiple human raters to ensure reliable ground-truth labels. Leveraging this dataset, we conduct a comprehensive evaluation of several publicly available large language models (LLMs) under zero-shot scenarios. Additionally, we fine-tune a BERT-based model specifically for predicting multi-label emotion scores. Experimental results reveal the relative strengths and limitations of zero-shot and fine-tuned models in capturing the nuanced emotional content of lyrics. Our findings highlight the potential of LLMs for emotion recognition in creative texts, providing insights into model selection strategies for emotion-based music information retrieval applications. The labeled dataset is available at https://github.com/LLM-HITCS25S/LyricsEmotionAttribution.
- Abstract(参考訳): 歌詞の感情的内容は、聴取者の体験を形作り、音楽的嗜好に影響を与える上で重要な役割を担っている。
本稿では,6つの基本感情に対応する6つの感情強度スコアを予測し,歌詞のマルチラベル感情属性の課題について検討する。
手動でラベル付けされたデータセットは平均評価スコア(MOS)アプローチを用いて構築される。
このデータセットを利用することで、ゼロショットシナリオ下で公開されている複数の大規模言語モデル(LLM)の包括的な評価を行う。
さらに、マルチラベル感情スコアを予測するために、BERTベースのモデルを微調整する。
実験結果から,ゼロショットモデルと微調整モデルとの相対的な長所と短所が,歌詞のニュアンスな感情的内容の獲得に有効であることが明らかとなった。
本研究は,LLMの創造的テキストにおける感情認識の可能性を強調し,感情に基づく音楽情報検索アプリケーションにおけるモデル選択戦略に関する洞察を提供する。
ラベル付きデータセットはhttps://github.com/LLM-HITCS25S/LyricsEmotionAttributionで公開されている。
関連論文リスト
- Emo Pillars: Knowledge Distillation to Support Fine-Grained Context-Aware and Context-Less Emotion Classification [56.974545305472304]
感情分析のためのほとんどのデータセットは、意見が表現された文脈を欠き、感情理解に不可欠であり、主にいくつかの感情カテゴリーによって制限される。
我々はLLMベースのデータ合成パイプラインを設計し、よりアクセスしやすい軽量BERT型エンコーダモデルのトレーニング例を生成するために、大規模モデルMistral-7bを利用する。
Emo Pillarsモデルは、GoEmotions、ISEAR、IEMOCAP、EmoContextといった特定のタスクに調整された場合、新しいドメインに対して高い適応性を示し、最初の3つでSOTAのパフォーマンスに達した。
論文 参考訳(メタデータ) (2025-04-23T16:23:17Z) - Enriching Multimodal Sentiment Analysis through Textual Emotional Descriptions of Visual-Audio Content [56.62027582702816]
マルチモーダル・センティメント・アナリティクスは、テキスト、音声、視覚データを融合することで人間の感情を解き放つことを目指している。
しかし、音声やビデオの表現の中で微妙な感情的なニュアンスを認識することは、恐ろしい挑戦だ。
テキストの感情記述に基づくプログレッシブ・フュージョン・フレームワークであるDEVAを紹介する。
論文 参考訳(メタデータ) (2024-12-12T11:30:41Z) - Semi-Supervised Self-Learning Enhanced Music Emotion Recognition [6.315220462630698]
音楽感情認識(MER)は、ある楽曲で伝達される感情を特定することを目的としている。
現在利用可能な公開データセットは、サンプルサイズが制限されている。
本稿では,正誤ラベル付きサンプルを自己学習方式で識別する半教師付き自己学習法を提案する。
論文 参考訳(メタデータ) (2024-10-29T09:42:07Z) - Exploring and Applying Audio-Based Sentiment Analysis in Music [0.0]
音楽的感情を解釈する計算モデルの能力は、ほとんど解明されていない。
本研究は,(1)音楽クリップの感情を時間とともに予測し,(2)時系列の次の感情値を決定し,シームレスな遷移を保証することを目的とする。
論文 参考訳(メタデータ) (2024-02-22T22:34:06Z) - Modelling Emotion Dynamics in Song Lyrics with State Space Models [4.18804572788063]
本研究では,歌詞の感情動態を楽曲レベルの監督なしに予測する手法を提案する。
提案手法を適用すれば,注釈付き楽曲を必要とせずに文レベルベースラインの性能を常に向上できることを示す。
論文 参考訳(メタデータ) (2022-10-17T21:07:23Z) - Accurate Emotion Strength Assessment for Seen and Unseen Speech Based on
Data-Driven Deep Learning [70.30713251031052]
本研究では,データ駆動型深層学習モデル,すなわちSenseNetを提案する。
実験の結果,提案した強度ネットの予測感情強度は,目視と目視の両方の真理値と高い相関性を示した。
論文 参考訳(メタデータ) (2022-06-15T01:25:32Z) - EMOVIE: A Mandarin Emotion Speech Dataset with a Simple Emotional
Text-to-Speech Model [56.75775793011719]
音声ファイルを含む9,724のサンプルとその感情ラベル付きアノテーションを含むマンダリン感情音声データセットを導入,公開する。
入力として追加の参照音声を必要とするこれらのモデルとは異なり、我々のモデルは入力テキストから直接感情ラベルを予測し、感情埋め込みに基づいてより表現力のある音声を生成することができる。
実験段階では、まず感情分類タスクによってデータセットの有効性を検証し、次に提案したデータセットに基づいてモデルをトレーニングし、一連の主観評価を行う。
論文 参考訳(メタデータ) (2021-06-17T08:34:21Z) - Affect2MM: Affective Analysis of Multimedia Content Using Emotion
Causality [84.69595956853908]
本稿では,マルチメディアコンテンツを対象とした時系列感情予測学習手法であるAffect2MMを提案する。
私たちの目標は、現実の人間中心の状況や行動でキャラクターが描く様々な感情を自動的に捉えることです。
論文 参考訳(メタデータ) (2021-03-11T09:07:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。