論文の概要: Musical Form Generation
- arxiv url: http://arxiv.org/abs/2310.19842v1
- Date: Mon, 30 Oct 2023 08:02:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-01 18:28:21.571142
- Title: Musical Form Generation
- Title(参考訳): 音楽形式の生成
- Authors: Lilac Atassi
- Abstract要約: 本稿では,任意の長さの楽曲を任意に生成する手法を提案する。
このアプローチの中心は、条件付き生成モデルを用いた音楽セグメントの作成である。
ハイレベルな構成を決定するプロンプトの生成は、より微細で低レベルな詳細の作成とは異なる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While recent generative models can produce engaging music, their utility is
limited. The variation in the music is often left to chance, resulting in
compositions that lack structure. Pieces extending beyond a minute can become
incoherent or repetitive. This paper introduces an approach for generating
structured, arbitrarily long musical pieces. Central to this approach is the
creation of musical segments using a conditional generative model, with
transitions between these segments. The generation of prompts that determine
the high-level composition is distinct from the creation of finer, lower-level
details. A large language model is then used to suggest the musical form.
- Abstract(参考訳): 最近の生成モデルは魅力的な音楽を生み出すことができるが、その実用性は限られている。
音楽のバリエーションはしばしば偶然に残され、結果として作曲は構造に欠ける。
1分を超えて伸びるピースは、不整合または反復的になることがある。
本稿では,構造化された任意の長さの音楽作品を生成する手法を提案する。
このアプローチの中心は、これらのセグメント間の遷移を伴う条件付き生成モデルを用いた音楽セグメントの作成である。
ハイレベルな構成を決定するプロンプトの生成は、より細かい低レベルな詳細を作成することと異なる。
次に、大きな言語モデルを使用して音楽形式を提案する。
関連論文リスト
- PerceiverS: A Multi-Scale Perceiver with Effective Segmentation for Long-Term Expressive Symbolic Music Generation [5.201151187019607]
PerceiverS(セグメンテーション・アンド・スケール)は、長い構造化された表現力のある音楽を生成するために設計された新しいアーキテクチャである。
本手法は,長期的構造的依存関係と短期的表現的詳細を同時に学習することにより,記号的音楽生成を促進する。
Maestroのようなデータセットで評価された提案モデルは、コヒーレントで多様な音楽を生成する改善を実証する。
論文 参考訳(メタデータ) (2024-11-13T03:14:10Z) - Integrating Text-to-Music Models with Language Models: Composing Long Structured Music Pieces [0.0]
本稿では,テキスト・ツー・ミュージック・モデルと大規模言語モデルを統合することにより,形式付き音楽を生成することを提案する。
実験の結果,提案手法は,高度に構造化され,組織化され,結合性が高い2.5分間の楽曲を生成できることがわかった。
論文 参考訳(メタデータ) (2024-10-01T02:43:14Z) - Whole-Song Hierarchical Generation of Symbolic Music Using Cascaded Diffusion Models [5.736540322759929]
我々は,作曲階層の実現の下で,完全な楽曲をモデル化する最初の試みを行う。
ハイレベル言語は全曲形式、フレーズ、ケイデンスを示し、低レベル言語は音符、和音、およびそれらの局所パターンに焦点を当てている。
実験と分析により,我々のモデルは,グローバルなヴァースコーラス構造とケイデンスを認識可能なフルピース音楽を生成することができることを示した。
論文 参考訳(メタデータ) (2024-05-16T08:48:23Z) - Graph-based Polyphonic Multitrack Music Generation [9.701208207491879]
本稿では,音楽のための新しいグラフ表現と,音楽グラフの構造と内容を別々に生成する深部変分オートエンコーダを提案する。
音楽グラフの構造と内容を分離することにより、特定のタイミングでどの楽器が演奏されているかを指定することで条件生成が可能となる。
論文 参考訳(メタデータ) (2023-07-27T15:18:50Z) - Unsupervised Melody-to-Lyric Generation [91.29447272400826]
本稿では,メロディ・歌詞データを学習することなく高品質な歌詞を生成する手法を提案する。
我々は、メロディと歌詞のセグメンテーションとリズムアライメントを利用して、与えられたメロディをデコード制約にコンパイルする。
我々のモデルは、強いベースラインよりもオントピー的、歌いやすく、知性があり、一貫性のある高品質な歌詞を生成することができる。
論文 参考訳(メタデータ) (2023-05-30T17:20:25Z) - Unsupervised Melody-Guided Lyrics Generation [84.22469652275714]
メロディと歌詞の一致したデータを学習することなく、楽しく聴ける歌詞を生成することを提案する。
メロディと歌詞間の重要なアライメントを活用し、与えられたメロディを制約にコンパイルし、生成プロセスを導く。
論文 参考訳(メタデータ) (2023-05-12T20:57:20Z) - Noise2Music: Text-conditioned Music Generation with Diffusion Models [73.74580231353684]
本研究では,テキストプロンプトから高品質な30秒音楽クリップを生成するために,一連の拡散モデルを訓練するNoss2Musicを紹介する。
生成した音声は、ジャンル、テンポ、楽器、ムード、時代など、テキストプロンプトの重要な要素を忠実に反映できるだけでなく、テキストプロンプトを忠実に反映できる。
トレーニングセットのオーディオのためにペア化されたテキストを生成し、拡散モデルによって取り込まれたテキストプロンプトの埋め込みを抽出するために使用される。
論文 参考訳(メタデータ) (2023-02-08T07:27:27Z) - Museformer: Transformer with Fine- and Coarse-Grained Attention for
Music Generation [138.74751744348274]
本研究では,音楽生成に新たな細粒度・粗粒度対応トランスフォーマーであるMuseformerを提案する。
具体的には、細かな注意を払って、特定のバーのトークンは、音楽構造に最も関係のあるバーのトークンに、直接参加する。
粗い注意を払って、トークンは計算コストを減らすために、それぞれのトークンではなく他のバーの要約にのみ参加する。
論文 参考訳(メタデータ) (2022-10-19T07:31:56Z) - Re-creation of Creations: A New Paradigm for Lyric-to-Melody Generation [158.54649047794794]
Re-creation of Creations (ROC)は、歌詞からメロディ生成のための新しいパラダイムである。
ROCは、Lyric-to-Meody生成において、優れたLyric-Meody特徴アライメントを実現する。
論文 参考訳(メタデータ) (2022-08-11T08:44:47Z) - Controllable deep melody generation via hierarchical music structure
representation [14.891975420982511]
MusicFrameworksは階層的な音楽構造表現であり、フル長のメロディを作成するための多段階の生成プロセスである。
各フレーズでメロディを生成するために、2つの異なるトランスフォーマーベースネットワークを用いてリズムとベーシックメロディを生成する。
さまざまな曲をカスタマイズしたり追加したりするために、音楽フレームワークのコード、基本的なメロディ、リズム構造を変更して、それに応じてネットワークがメロディを生成する。
論文 参考訳(メタデータ) (2021-09-02T01:31:14Z) - Melody-Conditioned Lyrics Generation with SeqGANs [81.2302502902865]
本稿では,SeqGAN(Sequence Generative Adversarial Networks)に基づく,エンドツーエンドのメロディ条件付き歌詞生成システムを提案する。
入力条件が評価指標に悪影響を及ぼすことなく,ネットワークがより有意義な結果が得られることを示す。
論文 参考訳(メタデータ) (2020-10-28T02:35:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。