論文の概要: TRBLLmaker -- Transformer Reads Between Lyrics Lines maker
- arxiv url: http://arxiv.org/abs/2212.04917v1
- Date: Fri, 9 Dec 2022 15:27:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-12 14:09:52.177180
- Title: TRBLLmaker -- Transformer Reads Between Lyrics Lines maker
- Title(参考訳): TRBLLmaker -- Lyrics Linesメーカー間のトランスフォーマー読み取り
- Authors: Mor Ventura and Michael Toker
- Abstract要約: 曲数行に暗黙的な意味を与える生成モデルを提案する。
我々のモデルはデコーダトランスフォーマーアーキテクチャ GPT-2 を用いており、入力は歌の歌詞である。
また、追加情報を追加するオプションにより、異なるプロンプト型の効果についても検討した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Even for us, it can be challenging to comprehend the meaning of songs. As
part of this project, we explore the process of generating the meaning of
songs. Despite the widespread use of text-to-text models, few attempts have
been made to achieve a similar objective. Songs are primarily studied in the
context of sentiment analysis. This involves identifying opinions and emotions
in texts, evaluating them as positive or negative, and utilizing these
evaluations to make music recommendations. In this paper, we present a
generative model that offers implicit meanings for several lines of a song. Our
model uses a decoder Transformer architecture GPT-2, where the input is the
lyrics of a song. Furthermore, we compared the performance of this architecture
with that of the encoder-decoder Transformer architecture of the T5 model. We
also examined the effect of different prompt types with the option of appending
additional information, such as the name of the artist and the title of the
song. Moreover, we tested different decoding methods with different training
parameters and evaluated our results using ROUGE. In order to build our
dataset, we utilized the 'Genious' API, which allowed us to acquire the lyrics
of songs and their explanations, as well as their rich metadata.
- Abstract(参考訳): 私たちにとっても、歌の意味を理解することは困難です。
このプロジェクトの一環として,歌の意味を生み出す過程について検討する。
テキストからテキストへのモデルが広く使われているにもかかわらず、同様の目的を達成する試みはほとんど行われていない。
歌は主に感情分析の文脈で研究されている。
これはテキスト中の意見や感情を識別し、肯定的あるいは否定的評価を行い、これらの評価を利用して音楽レコメンデーションを行う。
本稿では,歌の複数の行に対して暗黙的な意味を与える生成モデルを提案する。
我々のモデルはデコーダトランスフォーマーアーキテクチャ GPT-2 を用いており、入力は歌の歌詞である。
さらに,このアーキテクチャの性能を,T5モデルのエンコーダ・デコーダ・トランスフォーマーアーキテクチャと比較した。
また,アーティスト名や曲名などの追加情報を付加するオプションとして,さまざまなプロンプトタイプの効果についても検討した。
さらに,トレーニングパラメータの異なる異なる復号法をテストし,ルージュを用いて評価した。
データセットを構築するために、私たちは'genious' apiを使って、曲の歌詞とその説明、および豊富なメタデータを取得することができました。
関連論文リスト
- SongGen: A Single Stage Auto-regressive Transformer for Text-to-Song Generation [75.86473375730392]
SongGenは、コントロール可能な曲を生成するための、完全なオープンソースでシングルステージの自動回帰トランスフォーマーである。
音声と伴奏の混合を生成する混合モードと、それらを別々に合成するデュアルトラックモードの2つの出力モードをサポートする。
コミュニティの関与と今後の研究を促進するため、私たちは、モデルの重み付け、トレーニングコード、注釈付きデータ、前処理パイプラインをリリースします。
論文 参考訳(メタデータ) (2025-02-18T18:52:21Z) - Detecting Document-level Paraphrased Machine Generated Content: Mimicking Human Writing Style and Involving Discourse Features [57.34477506004105]
機械生成コンテンツは、学術プラジャリズムや誤報の拡散といった課題を提起する。
これらの課題を克服するために、新しい方法論とデータセットを導入します。
人間の筆記スタイルをエミュレートするエンコーダデコーダモデルであるMhBARTを提案する。
また,PDTB前処理による談話解析を統合し,構造的特徴を符号化するモデルであるDTransformerを提案する。
論文 参考訳(メタデータ) (2024-12-17T08:47:41Z) - Enriching Music Descriptions with a Finetuned-LLM and Metadata for Text-to-Music Retrieval [7.7464988473650935]
Text-to-Music Retrievalは、広範な音楽データベース内のコンテンツ発見において重要な役割を担っている。
本稿では,TTMR++と呼ばれる改良されたテキスト・音楽検索モデルを提案する。
論文 参考訳(メタデータ) (2024-10-04T09:33:34Z) - REFFLY: Melody-Constrained Lyrics Editing Model [50.03960548399128]
任意の形態のプレーンテキストドラフトを高品質で本格的な歌詞に編集するための,最初の改訂フレームワークであるREFFLYを紹介する。
提案手法は,生成した歌詞が原文の意味を保ち,旋律と整合し,所望の曲構造に固執することを保証する。
論文 参考訳(メタデータ) (2024-08-30T23:22:34Z) - Towards Estimating Personal Values in Song Lyrics [5.170818712089796]
西洋諸国で広く消費されている音楽は、歌詞が含まれており、アメリカのサンプルでは、彼らの楽曲ライブラリのほとんどすべてが歌詞を含んでいると報告している。
本稿では,社会科学理論に導かれたパースペクティビズム的アプローチを用いて,アノテーションの収集,品質評価,集約を行う。
次に、評価値辞書を用いて、事前学習した文/単語の埋め込みモデルに基づく評価値と比較する。
論文 参考訳(メタデータ) (2024-08-22T19:22:55Z) - Synthetic Lyrics Detection Across Languages and Genres [4.987546582439803]
音楽コンテンツ、特に歌詞を生成する大きな言語モデル(LLM)が人気を集めている。
これまで様々な領域におけるコンテンツ検出について研究されてきたが、音楽における歌詞のモダリティに焦点を当てた研究は行われていない。
我々は、複数の言語、音楽ジャンル、アーティストのリアルとシンセサイザーの多様なデータセットをキュレートした。
論文 参考訳(メタデータ) (2024-06-21T15:19:21Z) - MeLFusion: Synthesizing Music from Image and Language Cues using Diffusion Models [57.47799823804519]
私たちは、ミュージシャンが映画の脚本だけでなく、視覚化を通して音楽を作る方法にインスピレーションを受けています。
本稿では,テキスト記述と対応する画像からの手がかりを効果的に利用して音楽を合成するモデルであるMeLFusionを提案する。
音楽合成パイプラインに視覚情報を加えることで、生成した音楽の質が大幅に向上することを示す。
論文 参考訳(メタデータ) (2024-06-07T06:38:59Z) - Unsupervised Melody-to-Lyric Generation [91.29447272400826]
本稿では,メロディ・歌詞データを学習することなく高品質な歌詞を生成する手法を提案する。
我々は、メロディと歌詞のセグメンテーションとリズムアライメントを利用して、与えられたメロディをデコード制約にコンパイルする。
我々のモデルは、強いベースラインよりもオントピー的、歌いやすく、知性があり、一貫性のある高品質な歌詞を生成することができる。
論文 参考訳(メタデータ) (2023-05-30T17:20:25Z) - Bridging Music and Text with Crowdsourced Music Comments: A
Sequence-to-Sequence Framework for Thematic Music Comments Generation [18.2750732408488]
我々はクラウドソースの音楽コメントを利用して新しいデータセットを構築し,音楽のテキスト記述を生成するシーケンス・ツー・シーケンス・モデルを提案する。
生成したテキストの信頼性とテーマ性を高めるために,識別器と新しい話題評価器を提案する。
論文 参考訳(メタデータ) (2022-09-05T14:51:51Z) - The Contribution of Lyrics and Acoustics to Collaborative Understanding
of Mood [7.426508199697412]
データ駆動分析により歌詞と気分の関連性を検討した。
われわれのデータセットは100万曲近くで、Spotifyのストリーミングプラットフォーム上のユーザープレイリストから曲とムードのアソシエーションが生まれている。
我々は、トランスフォーマーに基づく最先端の自然言語処理モデルを利用して、歌詞と気分の関係を学習する。
論文 参考訳(メタデータ) (2022-05-31T19:58:41Z) - Melody-Conditioned Lyrics Generation with SeqGANs [81.2302502902865]
本稿では,SeqGAN(Sequence Generative Adversarial Networks)に基づく,エンドツーエンドのメロディ条件付き歌詞生成システムを提案する。
入力条件が評価指標に悪影響を及ぼすことなく,ネットワークがより有意義な結果が得られることを示す。
論文 参考訳(メタデータ) (2020-10-28T02:35:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。