論文の概要: Modelling Emotion Dynamics in Song Lyrics with State Space Models
- arxiv url: http://arxiv.org/abs/2210.09434v1
- Date: Mon, 17 Oct 2022 21:07:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-19 14:31:47.754666
- Title: Modelling Emotion Dynamics in Song Lyrics with State Space Models
- Title(参考訳): 状態空間モデルによる歌詞の感情ダイナミクスのモデル化
- Authors: Yingjin Song and Daniel Beck
- Abstract要約: 本研究では,歌詞の感情動態を楽曲レベルの監督なしに予測する手法を提案する。
提案手法を適用すれば,注釈付き楽曲を必要とせずに文レベルベースラインの性能を常に向上できることを示す。
- 参考スコア(独自算出の注目度): 4.18804572788063
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Most previous work in music emotion recognition assumes a single or a few
song-level labels for the whole song. While it is known that different emotions
can vary in intensity within a song, annotated data for this setup is scarce
and difficult to obtain. In this work, we propose a method to predict emotion
dynamics in song lyrics without song-level supervision. We frame each song as a
time series and employ a State Space Model (SSM), combining a sentence-level
emotion predictor with an Expectation-Maximization (EM) procedure to generate
the full emotion dynamics. Our experiments show that applying our method
consistently improves the performance of sentence-level baselines without
requiring any annotated songs, making it ideal for limited training data
scenarios. Further analysis through case studies shows the benefits of our
method while also indicating the limitations and pointing to future directions.
- Abstract(参考訳): 音楽感情認識におけるほとんどの以前の作品は、歌全体のシングルまたは数曲の曲レベルのレーベルを想定している。
歌の中で異なる感情が変化することは知られているが、この設定の注釈付きデータは入手が困難である。
本研究では,歌の歌詞における感情の動態を,歌レベルの監督を伴わずに予測する手法を提案する。
我々は各曲を時系列としてフレーム化してステートスペースモデル(SSM)を用い、文レベルの感情予測器と期待最大化(EM)手順を組み合わせて完全な感情力学を生成する。
提案手法を適用すれば,注釈付き曲を必要とせずに文レベルベースラインの性能を常に向上し,限られた訓練データシナリオに最適であることを示す。
ケーススタディによるさらなる分析は,本手法の利点を示しつつ,限界を示し,今後の方向性を示唆する。
関連論文リスト
- Semi-Supervised Self-Learning Enhanced Music Emotion Recognition [6.315220462630698]
音楽感情認識(MER)は、ある楽曲で伝達される感情を特定することを目的としている。
現在利用可能な公開データセットは、サンプルサイズが制限されている。
本稿では,正誤ラベル付きサンプルを自己学習方式で識別する半教師付き自己学習法を提案する。
論文 参考訳(メタデータ) (2024-10-29T09:42:07Z) - Emotion Manipulation Through Music -- A Deep Learning Interactive Visual Approach [0.0]
我々は,AIツールを用いて歌の感情的内容を操作する新しい方法を提案する。
私たちのゴールは、元のメロディをできるだけそのままにして、望ましい感情を達成することです。
この研究は、オンデマンドのカスタム音楽生成、既存の作品の自動リミックス、感情の進行に合わせて調整された音楽プレイリストに寄与する可能性がある。
論文 参考訳(メタデータ) (2024-06-12T20:12:29Z) - Exploring and Applying Audio-Based Sentiment Analysis in Music [0.0]
音楽的感情を解釈する計算モデルの能力は、ほとんど解明されていない。
本研究は,(1)音楽クリップの感情を時間とともに予測し,(2)時系列の次の感情値を決定し,シームレスな遷移を保証することを目的とする。
論文 参考訳(メタデータ) (2024-02-22T22:34:06Z) - Language Models (Mostly) Do Not Consider Emotion Triggers When Predicting Emotion [87.18073195745914]
人間の感情が感情の予測において有意であると考えられる特徴とどのように相関するかを検討する。
EmoTriggerを用いて、感情のトリガーを識別する大規模言語モデルの能力を評価する。
分析の結果、感情のトリガーは感情予測モデルにとって健全な特徴ではなく、様々な特徴と感情検出のタスクの間に複雑な相互作用があることが判明した。
論文 参考訳(メタデータ) (2023-11-16T06:20:13Z) - Unsupervised Melody-to-Lyric Generation [91.29447272400826]
本稿では,メロディ・歌詞データを学習することなく高品質な歌詞を生成する手法を提案する。
我々は、メロディと歌詞のセグメンテーションとリズムアライメントを利用して、与えられたメロディをデコード制約にコンパイルする。
我々のモデルは、強いベースラインよりもオントピー的、歌いやすく、知性があり、一貫性のある高品質な歌詞を生成することができる。
論文 参考訳(メタデータ) (2023-05-30T17:20:25Z) - REMAST: Real-time Emotion-based Music Arrangement with Soft Transition [29.34094293561448]
感情的な介入媒体としての音楽は、音楽療法、ゲーム、映画などのシナリオに重要な応用がある。
感情のリアルタイム適合とスムーズな遷移を同時に達成するためのREMASTを提案する。
評価結果によると,REMASTは客観的および主観的指標において最先端の手法を超越している。
論文 参考訳(メタデータ) (2023-05-14T00:09:48Z) - The Contribution of Lyrics and Acoustics to Collaborative Understanding
of Mood [7.426508199697412]
データ駆動分析により歌詞と気分の関連性を検討した。
われわれのデータセットは100万曲近くで、Spotifyのストリーミングプラットフォーム上のユーザープレイリストから曲とムードのアソシエーションが生まれている。
我々は、トランスフォーマーに基づく最先端の自然言語処理モデルを利用して、歌詞と気分の関係を学習する。
論文 参考訳(メタデータ) (2022-05-31T19:58:41Z) - A Novel Multi-Task Learning Method for Symbolic Music Emotion
Recognition [76.65908232134203]
Symbolic Music Emotion Recognition(SMER)は、MIDIやMusicXMLなどのシンボリックデータから音楽の感情を予測すること。
本稿では、感情認識タスクを他の感情関連補助タスクに組み込む、SMERのためのシンプルなマルチタスクフレームワークを提案する。
論文 参考訳(メタデータ) (2022-01-15T07:45:10Z) - Affect2MM: Affective Analysis of Multimedia Content Using Emotion
Causality [84.69595956853908]
本稿では,マルチメディアコンテンツを対象とした時系列感情予測学習手法であるAffect2MMを提案する。
私たちの目標は、現実の人間中心の状況や行動でキャラクターが描く様々な感情を自動的に捉えることです。
論文 参考訳(メタデータ) (2021-03-11T09:07:25Z) - SongMASS: Automatic Song Writing with Pre-training and Alignment
Constraint [54.012194728496155]
SongMASSは、歌詞からメロディーへの生成とメロディから歌詞への生成の課題を克服するために提案されている。
マスクドシーケンスを利用して、シーケンス(質量)事前トレーニングと注意に基づくアライメントモデリングを行う。
我々は,SongMASSがベースライン法よりもはるかに高品質な歌詞とメロディを生成することを示す。
論文 参考訳(メタデータ) (2020-12-09T16:56:59Z) - Modality-Transferable Emotion Embeddings for Low-Resource Multimodal
Emotion Recognition [55.44502358463217]
本稿では、上記の問題に対処するため、感情を埋め込んだモダリティ変換可能なモデルを提案する。
我々のモデルは感情カテゴリーのほとんどで最先端のパフォーマンスを達成する。
私たちのモデルは、目に見えない感情に対するゼロショットと少数ショットのシナリオにおいて、既存のベースラインよりも優れています。
論文 参考訳(メタデータ) (2020-09-21T06:10:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。