論文の概要: Diverse Melody Generation from Chinese Lyrics via Mutual Information
Maximization
- arxiv url: http://arxiv.org/abs/2012.03805v1
- Date: Mon, 7 Dec 2020 15:48:01 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-16 21:02:31.977238
- Title: Diverse Melody Generation from Chinese Lyrics via Mutual Information
Maximization
- Title(参考訳): 相互情報最大化による中国語歌詞からの異種メロディ生成
- Authors: Ruibin Yuan, Ge Zhang, Anqiao Yang, Xinyue Zhang
- Abstract要約: 歌詞とメロディのアライメントを改善するために,スケジュールド・フォース・デコード技術を用いる。
Diverse Melody Generation(DMG)と呼ばれるこの手法では、シーケンスからシーケンスまでのモデルが多様なメロディーを生成することを学びます。
実験の結果、DMGはベースライン法よりも楽しくコヒーレントな曲を生成できることが示された。
- 参考スコア(独自算出の注目度): 4.918202555592775
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we propose to adapt the method of mutual information
maximization into the task of Chinese lyrics conditioned melody generation to
improve the generation quality and diversity. We employ scheduled sampling and
force decoding techniques to improve the alignment between lyrics and melodies.
With our method, which we called Diverse Melody Generation (DMG), a
sequence-to-sequence model learns to generate diverse melodies heavily
depending on the input style ids, while keeping the tonality and improving the
alignment. The experimental results of subjective tests show that DMG can
generate more pleasing and coherent tunes than baseline methods.
- Abstract(参考訳): 本稿では,中国語の歌詞条件付きメロディ生成タスクに相互情報の最大化手法を適用し,生成品質と多様性を向上させることを提案する。
歌詞とメロディのアライメントを改善するために,スケジュールされたサンプリングと強制復号技術を用いた。
提案手法はDiverse Melody Generation (DMG) と呼ばれ,入力スタイルのIDに大きく依存する多様なメロディの生成を学習し,調性を維持し,アライメントを改善する。
主観評価実験の結果, DMG はベースライン法よりも心地よい, 一貫性のある調律を生成できることがわかった。
関連論文リスト
- Agent-Driven Large Language Models for Mandarin Lyric Generation [2.2221991003992967]
マンダリンのような音節の輪郭言語では、ピッチの輪郭はメロディとトーンの両方に影響され、歌詞とメロディの適合性が変化する。
本研究は,作詞家やメロディ作家が作曲過程に適合していることを確認する。
本研究では,メロディから歌詞へのタスクをサブタスクに分解するマルチエージェントシステムを開発し,各エージェントが韻律,音節数,歌詞・メロディのアライメント,一貫性を制御している。
論文 参考訳(メタデータ) (2024-10-02T12:01:32Z) - An End-to-End Approach for Chord-Conditioned Song Generation [14.951089833579063]
歌唱課題は、歌詞から声楽と伴奏からなる音楽を合成することを目的としている。
この問題を軽減するため,コードから曲生成ネットワークまで,音楽作曲から重要な概念を導入する。
そこで本研究では,CSG(Chord-Conditioned Song Generator)と呼ばれる新しいモデルを提案する。
論文 参考訳(メタデータ) (2024-09-10T08:07:43Z) - MuPT: A Generative Symbolic Music Pretrained Transformer [56.09299510129221]
音楽の事前学習におけるLarge Language Models (LLM) の適用について検討する。
生成過程の異なるトラックからの不整合対策に関連する課題に対処するために,SMT-ABC Notation(Synchronized Multi-Track ABC Notation)を提案する。
私たちのコントリビューションには、最大8192個のトークンを処理可能な一連のモデルが含まれており、トレーニングセットの象徴的な音楽データの90%をカバーしています。
論文 参考訳(メタデータ) (2024-04-09T15:35:52Z) - MelodyGLM: Multi-task Pre-training for Symbolic Melody Generation [39.892059799407434]
MelodyGLMは長期構造を持つメロディを生成するためのマルチタスク事前学習フレームワークである。
我々は,0.4百万以上のメロディを含む大規模な記号的メロディデータセットMelodyNetを構築した。
論文 参考訳(メタデータ) (2023-09-19T16:34:24Z) - Controllable Lyrics-to-Melody Generation [14.15838552524433]
ユーザは好みの音楽スタイルで歌詞からリアルなメロディを生成できる、制御可能な歌詞・メロディ生成ネットワークであるConL2Mを提案する。
本研究は,音楽属性の依存関係を複数のシーケンスをまたいでモデル化するため,マルチブランチスタック型LSTMアーキテクチャ間の情報フローを実現するためにメモリ間融合(Memofu)を提案し,参照スタイル埋め込み(RSE)を提案し,生成したメロディの音楽スタイルを制御し,シーケンスレベルの統計的損失(SeqLoss)をモデルがシーケンスレベルを学習するのに役立つように提案した。
論文 参考訳(メタデータ) (2023-06-05T06:14:08Z) - Unsupervised Melody-to-Lyric Generation [91.29447272400826]
本稿では,メロディ・歌詞データを学習することなく高品質な歌詞を生成する手法を提案する。
我々は、メロディと歌詞のセグメンテーションとリズムアライメントを利用して、与えられたメロディをデコード制約にコンパイルする。
我々のモデルは、強いベースラインよりもオントピー的、歌いやすく、知性があり、一貫性のある高品質な歌詞を生成することができる。
論文 参考訳(メタデータ) (2023-05-30T17:20:25Z) - Re-creation of Creations: A New Paradigm for Lyric-to-Melody Generation [158.54649047794794]
Re-creation of Creations (ROC)は、歌詞からメロディ生成のための新しいパラダイムである。
ROCは、Lyric-to-Meody生成において、優れたLyric-Meody特徴アライメントを実現する。
論文 参考訳(メタデータ) (2022-08-11T08:44:47Z) - Interpretable Melody Generation from Lyrics with Discrete-Valued
Adversarial Training [12.02541352832997]
Gumbel-Softmaxは、GAN(Generative Adversarial Networks)による音楽属性生成の非微分性問題を解決するために利用される。
ユーザーは生成されたAI曲を聴くだけでなく、推奨音楽属性から選択することで新しい曲を再生することができる。
論文 参考訳(メタデータ) (2022-06-30T05:45:47Z) - SongMASS: Automatic Song Writing with Pre-training and Alignment
Constraint [54.012194728496155]
SongMASSは、歌詞からメロディーへの生成とメロディから歌詞への生成の課題を克服するために提案されている。
マスクドシーケンスを利用して、シーケンス(質量)事前トレーニングと注意に基づくアライメントモデリングを行う。
我々は,SongMASSがベースライン法よりもはるかに高品質な歌詞とメロディを生成することを示す。
論文 参考訳(メタデータ) (2020-12-09T16:56:59Z) - Melody-Conditioned Lyrics Generation with SeqGANs [81.2302502902865]
本稿では,SeqGAN(Sequence Generative Adversarial Networks)に基づく,エンドツーエンドのメロディ条件付き歌詞生成システムを提案する。
入力条件が評価指標に悪影響を及ぼすことなく,ネットワークがより有意義な結果が得られることを示す。
論文 参考訳(メタデータ) (2020-10-28T02:35:40Z) - Unsupervised Cross-Domain Singing Voice Conversion [105.1021715879586]
任意の同一性から音声変換を行うタスクに対して,wav-to-wav生成モデルを提案する。
提案手法は,自動音声認識のタスクのために訓練された音響モデルとメロディ抽出機能の両方を用いて波形ベースジェネレータを駆動する。
論文 参考訳(メタデータ) (2020-08-06T18:29:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。