論文の概要: The Contribution of Lyrics and Acoustics to Collaborative Understanding
of Mood
- arxiv url: http://arxiv.org/abs/2207.05680v1
- Date: Tue, 31 May 2022 19:58:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-11 03:42:49.214575
- Title: The Contribution of Lyrics and Acoustics to Collaborative Understanding
of Mood
- Title(参考訳): 感情の協調的理解における歌詞と音響の寄与
- Authors: Shahrzad Naseri, Sravana Reddy, Joana Correia, Jussi Karlgren, Rosie
Jones
- Abstract要約: データ駆動分析により歌詞と気分の関連性を検討した。
われわれのデータセットは100万曲近くで、Spotifyのストリーミングプラットフォーム上のユーザープレイリストから曲とムードのアソシエーションが生まれている。
我々は、トランスフォーマーに基づく最先端の自然言語処理モデルを利用して、歌詞と気分の関係を学習する。
- 参考スコア(独自算出の注目度): 7.426508199697412
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this work, we study the association between song lyrics and mood through a
data-driven analysis. Our data set consists of nearly one million songs, with
song-mood associations derived from user playlists on the Spotify streaming
platform. We take advantage of state-of-the-art natural language processing
models based on transformers to learn the association between the lyrics and
moods. We find that a pretrained transformer-based language model in a
zero-shot setting -- i.e., out of the box with no further training on our data
-- is powerful for capturing song-mood associations. Moreover, we illustrate
that training on song-mood associations results in a highly accurate model that
predicts these associations for unseen songs. Furthermore, by comparing the
prediction of a model using lyrics with one using acoustic features, we observe
that the relative importance of lyrics for mood prediction in comparison with
acoustics depends on the specific mood. Finally, we verify if the models are
capturing the same information about lyrics and acoustics as humans through an
annotation task where we obtain human judgments of mood-song relevance based on
lyrics and acoustics.
- Abstract(参考訳): 本研究では,楽曲の歌詞と気分との関係をデータ駆動分析により検討する。
われわれのデータセットは100万曲近くで、Spotifyのストリーミングプラットフォーム上のユーザープレイリストから曲とムードのアソシエーションが生まれている。
我々は、トランスフォーマーに基づく最先端の自然言語処理モデルを利用して、歌詞と気分の関係を学習する。
ゼロショット設定で事前訓練されたトランスフォーマーベースの言語モデル — すなわち,データに関するさらなるトレーニングを伴わない — が,曲とムードの関連性を捉える上で強力であることに気付きました。
さらに,歌と歌の関連を学習することで,これらの関連を予測できる高精度なモデルが得られることを示す。
さらに,歌詞を用いたモデルの予測を音響特徴を用いた予測と比較することにより,感情予測における歌詞の相対的重要度が特定の気分に依存することを確かめた。
最後に,このモデルが人間と同じ歌詞や音響情報を取得しているかどうかをアノテーションタスクで検証し,歌詞やアコースティックスに基づく人間の感情・歌の関連性判定を行う。
関連論文リスト
- Towards Estimating Personal Values in Song Lyrics [5.170818712089796]
西洋諸国で広く消費されている音楽は、歌詞が含まれており、アメリカのサンプルでは、彼らの楽曲ライブラリのほとんどすべてが歌詞を含んでいると報告している。
本稿では,社会科学理論に導かれたパースペクティビズム的アプローチを用いて,アノテーションの収集,品質評価,集約を行う。
次に、評価値辞書を用いて、事前学習した文/単語の埋め込みモデルに基づく評価値と比較する。
論文 参考訳(メタデータ) (2024-08-22T19:22:55Z) - MuDiT & MuSiT: Alignment with Colloquial Expression in Description-to-Song Generation [18.181382408551574]
本稿では,口語記述から歌声生成への新たな課題を提案する。
生成されたコンテンツと口語的人間の表現の整合性に焦点を当てている。
この課題は、AIモデル内の言語理解と聴覚表現のギャップを埋めることを目的としている。
論文 参考訳(メタデータ) (2024-07-03T15:12:36Z) - MeLFusion: Synthesizing Music from Image and Language Cues using Diffusion Models [57.47799823804519]
私たちは、ミュージシャンが映画の脚本だけでなく、視覚化を通して音楽を作る方法にインスピレーションを受けています。
本稿では,テキスト記述と対応する画像からの手がかりを効果的に利用して音楽を合成するモデルであるMeLFusionを提案する。
音楽合成パイプラインに視覚情報を加えることで、生成した音楽の質が大幅に向上することを示す。
論文 参考訳(メタデータ) (2024-06-07T06:38:59Z) - Syllable-level lyrics generation from melody exploiting character-level
language model [14.851295355381712]
シンボリック・メロディから音節レベルの歌詞を生成するための微調整文字レベル言語モデルを提案する。
特に,言語モデルの言語知識を音節レベルのトランスフォーマー生成ネットワークのビームサーチプロセスに組み込む手法を提案する。
論文 参考訳(メタデータ) (2023-10-02T02:53:29Z) - Unsupervised Melody-to-Lyric Generation [91.29447272400826]
本稿では,メロディ・歌詞データを学習することなく高品質な歌詞を生成する手法を提案する。
我々は、メロディと歌詞のセグメンテーションとリズムアライメントを利用して、与えられたメロディをデコード制約にコンパイルする。
我々のモデルは、強いベースラインよりもオントピー的、歌いやすく、知性があり、一貫性のある高品質な歌詞を生成することができる。
論文 参考訳(メタデータ) (2023-05-30T17:20:25Z) - Unsupervised Melody-Guided Lyrics Generation [84.22469652275714]
メロディと歌詞の一致したデータを学習することなく、楽しく聴ける歌詞を生成することを提案する。
メロディと歌詞間の重要なアライメントを活用し、与えられたメロディを制約にコンパイルし、生成プロセスを導く。
論文 参考訳(メタデータ) (2023-05-12T20:57:20Z) - Modelling Emotion Dynamics in Song Lyrics with State Space Models [4.18804572788063]
本研究では,歌詞の感情動態を楽曲レベルの監督なしに予測する手法を提案する。
提案手法を適用すれば,注釈付き楽曲を必要とせずに文レベルベースラインの性能を常に向上できることを示す。
論文 参考訳(メタデータ) (2022-10-17T21:07:23Z) - Song Emotion Recognition: a Performance Comparison Between Audio
Features and Artificial Neural Networks [0.0]
この問題に対処するために使用される最も一般的な特徴とモデルについて検討し、カペラの歌で感情を認識するのに適したものを明らかにする。
本稿では,この課題に対処するために,近年の出版物で用いられている最も一般的な特徴とモデルについて検討し,カペラ歌の感情認識に最も適しているものについて述べる。
論文 参考訳(メタデータ) (2022-09-24T16:13:25Z) - Genre-conditioned Acoustic Models for Automatic Lyrics Transcription of
Polyphonic Music [73.73045854068384]
本稿では,新ジャンルネットワークを用いたポリフォニック音楽の歌詞の書き起こしを提案する。
提案するネットワークは,事前学習されたモデルパラメータを採用し,階層間のジャンルアダプタを組み込んで,歌詞とジャンルのペアのジャンルの特色を抽出する。
実験の結果,提案するジャンル条件付きネットワークは既存の歌詞の書き起こしシステムよりも優れていた。
論文 参考訳(メタデータ) (2022-04-07T09:15:46Z) - SongMASS: Automatic Song Writing with Pre-training and Alignment
Constraint [54.012194728496155]
SongMASSは、歌詞からメロディーへの生成とメロディから歌詞への生成の課題を克服するために提案されている。
マスクドシーケンスを利用して、シーケンス(質量)事前トレーニングと注意に基づくアライメントモデリングを行う。
我々は,SongMASSがベースライン法よりもはるかに高品質な歌詞とメロディを生成することを示す。
論文 参考訳(メタデータ) (2020-12-09T16:56:59Z) - Melody-Conditioned Lyrics Generation with SeqGANs [81.2302502902865]
本稿では,SeqGAN(Sequence Generative Adversarial Networks)に基づく,エンドツーエンドのメロディ条件付き歌詞生成システムを提案する。
入力条件が評価指標に悪影響を及ぼすことなく,ネットワークがより有意義な結果が得られることを示す。
論文 参考訳(メタデータ) (2020-10-28T02:35:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。