論文の概要: TRBLLmaker -- Transformer Reads Between Lyrics Lines maker
- arxiv url: http://arxiv.org/abs/2212.04917v1
- Date: Fri, 9 Dec 2022 15:27:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-12 14:09:52.177180
- Title: TRBLLmaker -- Transformer Reads Between Lyrics Lines maker
- Title(参考訳): TRBLLmaker -- Lyrics Linesメーカー間のトランスフォーマー読み取り
- Authors: Mor Ventura and Michael Toker
- Abstract要約: 曲数行に暗黙的な意味を与える生成モデルを提案する。
我々のモデルはデコーダトランスフォーマーアーキテクチャ GPT-2 を用いており、入力は歌の歌詞である。
また、追加情報を追加するオプションにより、異なるプロンプト型の効果についても検討した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Even for us, it can be challenging to comprehend the meaning of songs. As
part of this project, we explore the process of generating the meaning of
songs. Despite the widespread use of text-to-text models, few attempts have
been made to achieve a similar objective. Songs are primarily studied in the
context of sentiment analysis. This involves identifying opinions and emotions
in texts, evaluating them as positive or negative, and utilizing these
evaluations to make music recommendations. In this paper, we present a
generative model that offers implicit meanings for several lines of a song. Our
model uses a decoder Transformer architecture GPT-2, where the input is the
lyrics of a song. Furthermore, we compared the performance of this architecture
with that of the encoder-decoder Transformer architecture of the T5 model. We
also examined the effect of different prompt types with the option of appending
additional information, such as the name of the artist and the title of the
song. Moreover, we tested different decoding methods with different training
parameters and evaluated our results using ROUGE. In order to build our
dataset, we utilized the 'Genious' API, which allowed us to acquire the lyrics
of songs and their explanations, as well as their rich metadata.
- Abstract(参考訳): 私たちにとっても、歌の意味を理解することは困難です。
このプロジェクトの一環として,歌の意味を生み出す過程について検討する。
テキストからテキストへのモデルが広く使われているにもかかわらず、同様の目的を達成する試みはほとんど行われていない。
歌は主に感情分析の文脈で研究されている。
これはテキスト中の意見や感情を識別し、肯定的あるいは否定的評価を行い、これらの評価を利用して音楽レコメンデーションを行う。
本稿では,歌の複数の行に対して暗黙的な意味を与える生成モデルを提案する。
我々のモデルはデコーダトランスフォーマーアーキテクチャ GPT-2 を用いており、入力は歌の歌詞である。
さらに,このアーキテクチャの性能を,T5モデルのエンコーダ・デコーダ・トランスフォーマーアーキテクチャと比較した。
また,アーティスト名や曲名などの追加情報を付加するオプションとして,さまざまなプロンプトタイプの効果についても検討した。
さらに,トレーニングパラメータの異なる異なる復号法をテストし,ルージュを用いて評価した。
データセットを構築するために、私たちは'genious' apiを使って、曲の歌詞とその説明、および豊富なメタデータを取得することができました。
関連論文リスト
- Enriching Music Descriptions with a Finetuned-LLM and Metadata for Text-to-Music Retrieval [7.7464988473650935]
Text-to-Music Retrievalは、広範な音楽データベース内のコンテンツ発見において重要な役割を担っている。
本稿では,TTMR++と呼ばれる改良されたテキスト・音楽検索モデルを提案する。
論文 参考訳(メタデータ) (2024-10-04T09:33:34Z) - REFFLY: Melody-Constrained Lyrics Editing Model [50.03960548399128]
任意の形態のプレーンテキストドラフトを高品質で本格的な歌詞に編集するための,最初の改訂フレームワークであるREFFLYを紹介する。
提案手法は,生成した歌詞が原文の意味を保ち,旋律と整合し,所望の曲構造に固執することを保証する。
論文 参考訳(メタデータ) (2024-08-30T23:22:34Z) - Towards Estimating Personal Values in Song Lyrics [5.170818712089796]
西洋諸国で広く消費されている音楽は、歌詞が含まれており、アメリカのサンプルでは、彼らの楽曲ライブラリのほとんどすべてが歌詞を含んでいると報告している。
本稿では,社会科学理論に導かれたパースペクティビズム的アプローチを用いて,アノテーションの収集,品質評価,集約を行う。
次に、評価値辞書を用いて、事前学習した文/単語の埋め込みモデルに基づく評価値と比較する。
論文 参考訳(メタデータ) (2024-08-22T19:22:55Z) - Detecting Synthetic Lyrics with Few-Shot Inference [5.448536338411993]
高品質な合成歌詞の最初のデータセットをキュレートした。
LLM2Vecをベースとした、最も優れた数発の検出器は、スタイリスティックおよび統計的手法を超越しています。
本研究は,創造的コンテンツ検出のさらなる研究の必要性を強調する。
論文 参考訳(メタデータ) (2024-06-21T15:19:21Z) - MeLFusion: Synthesizing Music from Image and Language Cues using Diffusion Models [57.47799823804519]
私たちは、ミュージシャンが映画の脚本だけでなく、視覚化を通して音楽を作る方法にインスピレーションを受けています。
本稿では,テキスト記述と対応する画像からの手がかりを効果的に利用して音楽を合成するモデルであるMeLFusionを提案する。
音楽合成パイプラインに視覚情報を加えることで、生成した音楽の質が大幅に向上することを示す。
論文 参考訳(メタデータ) (2024-06-07T06:38:59Z) - Simple and Controllable Music Generation [94.61958781346176]
MusicGenは単一の言語モデル(LM)であり、圧縮された離散的な音楽表現、すなわちトークンの複数のストリームで動作する。
以前の作業とは異なり、MusicGenはシングルステージのトランスフォーマーLMと効率的なトークンインターリービングパターンで構成されている。
論文 参考訳(メタデータ) (2023-06-08T15:31:05Z) - Unsupervised Melody-to-Lyric Generation [91.29447272400826]
本稿では,メロディ・歌詞データを学習することなく高品質な歌詞を生成する手法を提案する。
我々は、メロディと歌詞のセグメンテーションとリズムアライメントを利用して、与えられたメロディをデコード制約にコンパイルする。
我々のモデルは、強いベースラインよりもオントピー的、歌いやすく、知性があり、一貫性のある高品質な歌詞を生成することができる。
論文 参考訳(メタデータ) (2023-05-30T17:20:25Z) - Bridging Music and Text with Crowdsourced Music Comments: A
Sequence-to-Sequence Framework for Thematic Music Comments Generation [18.2750732408488]
我々はクラウドソースの音楽コメントを利用して新しいデータセットを構築し,音楽のテキスト記述を生成するシーケンス・ツー・シーケンス・モデルを提案する。
生成したテキストの信頼性とテーマ性を高めるために,識別器と新しい話題評価器を提案する。
論文 参考訳(メタデータ) (2022-09-05T14:51:51Z) - The Contribution of Lyrics and Acoustics to Collaborative Understanding
of Mood [7.426508199697412]
データ駆動分析により歌詞と気分の関連性を検討した。
われわれのデータセットは100万曲近くで、Spotifyのストリーミングプラットフォーム上のユーザープレイリストから曲とムードのアソシエーションが生まれている。
我々は、トランスフォーマーに基づく最先端の自然言語処理モデルを利用して、歌詞と気分の関係を学習する。
論文 参考訳(メタデータ) (2022-05-31T19:58:41Z) - Melody-Conditioned Lyrics Generation with SeqGANs [81.2302502902865]
本稿では,SeqGAN(Sequence Generative Adversarial Networks)に基づく,エンドツーエンドのメロディ条件付き歌詞生成システムを提案する。
入力条件が評価指標に悪影響を及ぼすことなく,ネットワークがより有意義な結果が得られることを示す。
論文 参考訳(メタデータ) (2020-10-28T02:35:40Z) - SongNet: Rigid Formats Controlled Text Generation [51.428634666559724]
この問題に対処するために,SongNetというシンプルでエレガントなフレームワークを提案する。
フレームワークのバックボーンは、Transformerベースの自動回帰言語モデルである。
事前学習および微調整のフレームワークは、生成品質をさらに向上するために設計されている。
論文 参考訳(メタデータ) (2020-04-17T01:40:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。