論文の概要: Detecting Synthetic Lyrics with Few-Shot Inference
- arxiv url: http://arxiv.org/abs/2406.15231v1
- Date: Fri, 21 Jun 2024 15:19:21 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-24 13:13:06.987092
- Title: Detecting Synthetic Lyrics with Few-Shot Inference
- Title(参考訳): Few-Shot推論による合成歌詞の検出
- Authors: Yanis Labrak, Gabriel Meseguer-Brocal, Elena V. Epure,
- Abstract要約: 高品質な合成歌詞の最初のデータセットをキュレートした。
LLM2Vecをベースとした、最も優れた数発の検出器は、スタイリスティックおよび統計的手法を超越しています。
本研究は,創造的コンテンツ検出のさらなる研究の必要性を強調する。
- 参考スコア(独自算出の注目度): 5.448536338411993
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In recent years, generated content in music has gained significant popularity, with large language models being effectively utilized to produce human-like lyrics in various styles, themes, and linguistic structures. This technological advancement supports artists in their creative processes but also raises issues of authorship infringement, consumer satisfaction and content spamming. To address these challenges, methods for detecting generated lyrics are necessary. However, existing works have not yet focused on this specific modality or on creative text in general regarding machine-generated content detection methods and datasets. In response, we have curated the first dataset of high-quality synthetic lyrics and conducted a comprehensive quantitative evaluation of various few-shot content detection approaches, testing their generalization capabilities and complementing this with a human evaluation. Our best few-shot detector, based on LLM2Vec, surpasses stylistic and statistical methods, which are shown competitive in other domains at distinguishing human-written from machine-generated content. It also shows good generalization capabilities to new artists and models, and effectively detects post-generation paraphrasing. This study emphasizes the need for further research on creative content detection, particularly in terms of generalization and scalability with larger song catalogs. All datasets, pre-processing scripts, and code are available publicly on GitHub and Hugging Face under the Apache 2.0 license.
- Abstract(参考訳): 近年、音楽の創作されたコンテンツは、様々なスタイル、テーマ、言語構造において人間に似た歌詞を作るために、大きな言語モデルが効果的に活用され、大きな人気を集めている。
この技術進歩は、アーティストが創造的なプロセスで支援するだけでなく、著作権侵害、消費者満足度、コンテンツスパムの問題を提起する。
これらの課題に対処するためには、生成された歌詞を検出する方法が必要である。
しかし、既存の研究は、この特定のモダリティや、機械生成コンテンツ検出方法やデータセットに関する創造的なテキストにまだ焦点を当てていない。
そこで我々は,高品質な合成歌詞の最初のデータセットをキュレートし,多種多様な映像コンテンツ検出手法の包括的定量的評価を行い,その一般化能力を検証し,それを人間による評価で補完した。
LLM2Vecをベースとした我々の最も優れた数発検出器は、機械生成コンテンツと人間の書き起こしを区別する他の領域で競合する、構造的および統計的手法を超越している。
また、新しいアーティストやモデルに優れた一般化能力を示し、ポストジェネレーションのパラフレーズを効果的に検出する。
本研究は、特に、より大きな楽曲カタログによる一般化とスケーラビリティの観点から、創造的コンテンツ検出に関するさらなる研究の必要性を強調する。
すべてのデータセット、前処理スクリプト、コードはGitHubとHugging FaceでApache 2.0ライセンス下で公開されている。
関連論文リスト
- Multi-label Cross-lingual automatic music genre classification from lyrics with Sentence BERT [0.13654846342364302]
本稿では sBERT が生成した多言語文の埋め込みに基づく多言語ジャンル分類システムを提案する。
重なり合う8つのジャンルを持つバイリンガル・ポルトガル語・英語のデータセットを用いて、ある言語で歌詞を訓練し、別の言語でジャンルを予測する能力を示す。
論文 参考訳(メタデータ) (2025-01-07T13:22:35Z) - Enriching Music Descriptions with a Finetuned-LLM and Metadata for Text-to-Music Retrieval [7.7464988473650935]
Text-to-Music Retrievalは、広範な音楽データベース内のコンテンツ発見において重要な役割を担っている。
本稿では,TTMR++と呼ばれる改良されたテキスト・音楽検索モデルを提案する。
論文 参考訳(メタデータ) (2024-10-04T09:33:34Z) - LyCon: Lyrics Reconstruction from the Bag-of-Words Using Large Language Models [1.1510009152620668]
本研究では,公開されているBag-of-Wordsデータセットから著作権のない歌詞を生成する新しい手法を提案する。
我々は、有名なソースからのメタデータと一致した、再構成された歌詞のデータセットLyConをコンパイルし、利用可能にしました。
我々は、ムードアノテーションやジャンルなどのメタデータの統合は、歌詞に関する様々な学術実験を可能にすると信じている。
論文 参考訳(メタデータ) (2024-08-27T03:01:48Z) - MeLFusion: Synthesizing Music from Image and Language Cues using Diffusion Models [57.47799823804519]
私たちは、ミュージシャンが映画の脚本だけでなく、視覚化を通して音楽を作る方法にインスピレーションを受けています。
本稿では,テキスト記述と対応する画像からの手がかりを効果的に利用して音楽を合成するモデルであるMeLFusionを提案する。
音楽合成パイプラインに視覚情報を加えることで、生成した音楽の質が大幅に向上することを示す。
論文 参考訳(メタデータ) (2024-06-07T06:38:59Z) - Syllable-level lyrics generation from melody exploiting character-level
language model [14.851295355381712]
シンボリック・メロディから音節レベルの歌詞を生成するための微調整文字レベル言語モデルを提案する。
特に,言語モデルの言語知識を音節レベルのトランスフォーマー生成ネットワークのビームサーチプロセスに組み込む手法を提案する。
論文 参考訳(メタデータ) (2023-10-02T02:53:29Z) - LyricWhiz: Robust Multilingual Zero-shot Lyrics Transcription by Whispering to ChatGPT [48.28624219567131]
リリックウィズ(LyricWhiz)は、頑健で、多言語で、ゼロショットの自動歌詞書き起こし方式である。
我々は、弱教師付き頑健な音声認識モデルであるWhisperと、今日の最もパフォーマンスの高いチャットベースの大規模言語モデルであるGPT-4を使用している。
実験の結果,LyricWhizは英語の既存手法に比べて単語誤り率を大幅に低下させることがわかった。
論文 参考訳(メタデータ) (2023-06-29T17:01:51Z) - Exploring the Efficacy of Pre-trained Checkpoints in Text-to-Music
Generation Task [86.72661027591394]
テキスト記述から完全で意味論的に一貫したシンボリック音楽の楽譜を生成する。
テキスト・音楽生成タスクにおける自然言語処理のための公開チェックポイントの有効性について検討する。
実験結果から, BLEUスコアと編集距離の類似性において, 事前学習によるチェックポイントの使用による改善が統計的に有意であることが示唆された。
論文 参考訳(メタデータ) (2022-11-21T07:19:17Z) - Bridging Music and Text with Crowdsourced Music Comments: A
Sequence-to-Sequence Framework for Thematic Music Comments Generation [18.2750732408488]
我々はクラウドソースの音楽コメントを利用して新しいデータセットを構築し,音楽のテキスト記述を生成するシーケンス・ツー・シーケンス・モデルを提案する。
生成したテキストの信頼性とテーマ性を高めるために,識別器と新しい話題評価器を提案する。
論文 参考訳(メタデータ) (2022-09-05T14:51:51Z) - Genre-conditioned Acoustic Models for Automatic Lyrics Transcription of
Polyphonic Music [73.73045854068384]
本稿では,新ジャンルネットワークを用いたポリフォニック音楽の歌詞の書き起こしを提案する。
提案するネットワークは,事前学習されたモデルパラメータを採用し,階層間のジャンルアダプタを組み込んで,歌詞とジャンルのペアのジャンルの特色を抽出する。
実験の結果,提案するジャンル条件付きネットワークは既存の歌詞の書き起こしシステムよりも優れていた。
論文 参考訳(メタデータ) (2022-04-07T09:15:46Z) - Youling: an AI-Assisted Lyrics Creation System [72.00418962906083]
本稿では,AIによる歌詞作成システムである textitYouling について紹介する。
歌詞生成プロセスでは、textitYoulingは従来の1パスのフルテキスト生成モードとインタラクティブな生成モードをサポートする。
システムは、ユーザーが望まない文や歌詞の言葉を繰り返し修正できるリビジョンモジュールも提供する。
論文 参考訳(メタデータ) (2022-01-18T03:57:04Z) - Melody-Conditioned Lyrics Generation with SeqGANs [81.2302502902865]
本稿では,SeqGAN(Sequence Generative Adversarial Networks)に基づく,エンドツーエンドのメロディ条件付き歌詞生成システムを提案する。
入力条件が評価指標に悪影響を及ぼすことなく,ネットワークがより有意義な結果が得られることを示す。
論文 参考訳(メタデータ) (2020-10-28T02:35:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。