論文の概要: Encoder-Decoder Framework for Interactive Free Verses with Generation with Controllable High-Quality Rhyming
- arxiv url: http://arxiv.org/abs/2405.05176v1
- Date: Wed, 8 May 2024 16:13:40 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-09 14:05:10.124170
- Title: Encoder-Decoder Framework for Interactive Free Verses with Generation with Controllable High-Quality Rhyming
- Title(参考訳): 制御可能な高品質リズム生成を伴う対話型自由動詞のためのエンコーダデコーダフレームワーク
- Authors: Tommaso Pasini, Alejo López-Ávila, Husam Quteineh, Gerasimos Lampouras, Jinhua Du, Yubing Wang, Ze Li, Yusen Sun,
- Abstract要約: 本稿では,各歌詞の開始時に韻律語を先行する新しい微調整手法を提案する。
我々は、この微調整を現在の韻律の最先端戦略と比較するために、広範囲な実験を行った。
我々は、英語や他の12の言語で高品質なデータセットを提供し、多言語コンテキストにおけるアプローチの実現可能性を分析し、将来的なメソッド比較のためのメトリクスを提案する。
- 参考スコア(独自算出の注目度): 15.595206559574017
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Composing poetry or lyrics involves several creative factors, but a challenging aspect of generation is the adherence to a more or less strict metric and rhyming pattern. To address this challenge specifically, previous work on the task has mainly focused on reverse language modeling, which brings the critical selection of each rhyming word to the forefront of each verse. On the other hand, reversing the word order requires that models be trained from scratch with this task-specific goal and cannot take advantage of transfer learning from a Pretrained Language Model (PLM). We propose a novel fine-tuning approach that prepends the rhyming word at the start of each lyric, which allows the critical rhyming decision to be made before the model commits to the content of the lyric (as during reverse language modeling), but maintains compatibility with the word order of regular PLMs as the lyric itself is still generated in left-to-right order. We conducted extensive experiments to compare this fine-tuning against the current state-of-the-art strategies for rhyming, finding that our approach generates more readable text and better rhyming capabilities. Furthermore, we furnish a high-quality dataset in English and 12 other languages, analyse the approach's feasibility in a multilingual context, provide extensive experimental results shedding light on good and bad practices for lyrics generation, and propose metrics to compare methods in the future.
- Abstract(参考訳): 詩や歌詞の作曲にはいくつかの創造的な要素が伴うが、生成の挑戦的な側面は、多かれ少なかれ厳格な韻律と韻律のパターンに固執することである。
この課題に対処するために、タスクの以前の研究は主にリバース言語モデリングに焦点を当てており、各韻律語の批判的な選択を各詩の前面にもたらす。
一方、語順を逆転させるには、このタスク固有の目標をゼロからトレーニングすることが必要であり、事前訓練された言語モデル(PLM)からの変換学習を活用できない。
本稿では,各歌詞の開始時に韻律語を付加する新たな微調整手法を提案する。これは,モデルが歌詞の内容にコミットする前に(逆言語モデリングのように)重要な韻律決定を行うことができるが,歌詞自体が左から右の順に生成されているため,通常のPLMの単語順序との整合性は維持される。
我々は、この微調整を現在の韻律の最先端戦略と比較するために広範囲な実験を行い、我々のアプローチがより読みやすいテキストとより優れた韻律能力を生み出すことを発見した。
さらに、英語や他の12言語で高品質なデータセットを作成し、多言語文脈におけるアプローチの実現可能性を分析し、歌詞生成のための良いプラクティスと悪いプラクティスに光を当てた広範な実験結果を提供し、将来的な手法の比較のためのメトリクスを提案する。
関連論文リスト
- Rhyme-aware Chinese lyric generator based on GPT [1.2813386930534034]
大規模コーパスで事前訓練されたGPTは、プレーンテキストからリッチなセマンティックパターンを効果的にキャプチャすることができる。
しかし、歌詞を生成するために使われている既存の事前学習言語モデルは、歌詞にとって重要な韻律情報を考えることは滅多にない。
論文 参考訳(メタデータ) (2024-08-19T16:17:20Z) - Retrieval is Accurate Generation [99.24267226311157]
本稿では,支援文書の集合からコンテキスト認識句を選択する新しい手法を提案する。
本モデルでは,検索対象のベースラインの中で,最高の性能と低レイテンシを実現する。
論文 参考訳(メタデータ) (2024-02-27T14:16:19Z) - Syllable-level lyrics generation from melody exploiting character-level
language model [14.851295355381712]
シンボリック・メロディから音節レベルの歌詞を生成するための微調整文字レベル言語モデルを提案する。
特に,言語モデルの言語知識を音節レベルのトランスフォーマー生成ネットワークのビームサーチプロセスに組み込む手法を提案する。
論文 参考訳(メタデータ) (2023-10-02T02:53:29Z) - Unsupervised Melody-to-Lyric Generation [91.29447272400826]
本稿では,メロディ・歌詞データを学習することなく高品質な歌詞を生成する手法を提案する。
我々は、メロディと歌詞のセグメンテーションとリズムアライメントを利用して、与えられたメロディをデコード制約にコンパイルする。
我々のモデルは、強いベースラインよりもオントピー的、歌いやすく、知性があり、一貫性のある高品質な歌詞を生成することができる。
論文 参考訳(メタデータ) (2023-05-30T17:20:25Z) - Unsupervised Melody-Guided Lyrics Generation [84.22469652275714]
メロディと歌詞の一致したデータを学習することなく、楽しく聴ける歌詞を生成することを提案する。
メロディと歌詞間の重要なアライメントを活用し、与えられたメロディを制約にコンパイルし、生成プロセスを導く。
論文 参考訳(メタデータ) (2023-05-12T20:57:20Z) - SongRewriter: A Chinese Song Rewriting System with Controllable Content
and Rhyme Scheme [32.60994266892925]
メロディ構成の知識を必要とせずにユーザを支援する制御可能な中国語歌詞生成・編集システムを提案する。
このシステムはランダム化されたマルチレベルマスキング戦略によって訓練され、完全に新しい歌詞を生成したり、いくつかの断片を編集するための統一モデルを生成する。
論文 参考訳(メタデータ) (2022-11-28T03:52:05Z) - Pre-training via Paraphrasing [96.79972492585112]
教師なし多言語パラフレージング目的を用いて学習した,事前学習されたシーケンス・ツー・シーケンスモデルであるMARGEを紹介する。
ランダムな初期化のみを前提として,検索と再構築を共同で行うことができることを示す。
例えば、追加のタスク固有のトレーニングがなければ、文書翻訳のBLEUスコアは最大35.8に達する。
論文 参考訳(メタデータ) (2020-06-26T14:43:43Z) - Toward Better Storylines with Sentence-Level Language Models [54.91921545103256]
本稿では,文章中の次の文を選択する文レベル言語モデルを提案する。
教師なしストーリークローゼタスクにおける最先端の精度によるアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2020-05-11T16:54:19Z) - Improving Adversarial Text Generation by Modeling the Distant Future [155.83051741029732]
テキスト計画手法を考察し、上記の問題を緩和するためのモデルに基づく模倣学習手法を提案する。
本稿では,より長い地平線上の生成過程に焦点をあてる新しいガイドネットワークを提案する。
論文 参考訳(メタデータ) (2020-05-04T05:45:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。