論文の概要: A-Muze-Net: Music Generation by Composing the Harmony based on the
Generated Melody
- arxiv url: http://arxiv.org/abs/2111.12986v1
- Date: Thu, 25 Nov 2021 09:45:53 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-30 09:35:34.418889
- Title: A-Muze-Net: Music Generation by Composing the Harmony based on the
Generated Melody
- Title(参考訳): A-Muze-Net:生成メロディに基づくハーモニーの構成による音楽生成
- Authors: Or Goren, Eliya Nachmani, Lior Wolf
- Abstract要約: ピアノ音楽のMidiファイルを生成する方法を提案する。
この方法は、左手を右手に固定した2つのネットワークを用いて、左右の手をモデル化する。
ミディは音階に不変な方法で表現され、メロディはハーモニーを調和させる目的で表現される。
- 参考スコア(独自算出の注目度): 91.22679787578438
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a method for the generation of Midi files of piano music. The
method models the right and left hands using two networks, where the left hand
is conditioned on the right hand. This way, the melody is generated before the
harmony. The Midi is represented in a way that is invariant to the musical
scale, and the melody is represented, for the purpose of conditioning the
harmony, by the content of each bar, viewed as a chord. Finally, notes are
added randomly, based on this chord representation, in order to enrich the
generated audio. Our experiments show a significant improvement over the state
of the art for training on such datasets, and demonstrate the contribution of
each of the novel components.
- Abstract(参考訳): ピアノ音楽のmidiファイルを生成する方法を提案する。
この方法は、左手を右手に固定した2つのネットワークを用いて、左右の手をモデル化する。
このように、和声の前にメロディが生成される。
midiは音階に不変な方法で表現され、メロディは和音を調律するために、和音として見なされる各バーの内容によって表現される。
最後に、生成した音声を豊かにするために、このコード表現に基づいて音符をランダムに追加する。
本実験は,これらのデータセットをトレーニングするための技術の現状を大幅に改善し,各新規成分の寄与を実証した。
関連論文リスト
- Melody Is All You Need For Music Generation [10.366088659024685]
本稿では,メロディを用いたテキスト・ツー・ミュージック・ジェネレーションの新たなアプローチであるメロディ・ガイドド・ミュージック・ジェネレーション(MG2)モデルを提案する。
提案したMG2モデルは、既存のオープンソースのテキストから音楽への生成モデルを超え、パラメータの1/3未満とトレーニングデータの1/200未満を活用している。
論文 参考訳(メタデータ) (2024-09-30T11:13:35Z) - Emotion-Driven Melody Harmonization via Melodic Variation and Functional Representation [16.790582113573453]
感情駆動のメロディは、望ましい感情を伝えるために、1つのメロディのための多様なハーモニーを生成することを目的としている。
以前の研究では、異なるコードで同じメロディを調和させることで、リードシートの知覚的価値を変えることが困難であった。
本稿では,シンボリック音楽の新たな機能表現を提案する。
論文 参考訳(メタデータ) (2024-07-29T17:05:12Z) - InstructME: An Instruction Guided Music Edit And Remix Framework with
Latent Diffusion Models [42.2977676825086]
本稿では,遅延拡散モデルに基づくインストラクションガイド付き音楽編集・リミックスフレームワークであるInstructMEを開発する。
本フレームワークは,編集前後の一貫性を維持するため,U-Netをマルチスケールアグリゲーションで強化する。
提案手法は, 音質, テキスト関連性, 調和性において, 先行するシステムを大幅に上回っている。
論文 参考訳(メタデータ) (2023-08-28T07:11:42Z) - Melody transcription via generative pre-training [86.08508957229348]
メロディの書き起こしの鍵となる課題は、様々な楽器のアンサンブルや音楽スタイルを含む幅広いオーディオを処理できる方法を構築することである。
この課題に対処するために、広帯域オーディオの生成モデルであるJukebox(Dhariwal et al. 2020)の表現を活用する。
広義音楽のクラウドソースアノテーションから50ドル(約5,400円)のメロディ書き起こしを含む新しいデータセットを導出する。
論文 参考訳(メタデータ) (2022-12-04T18:09:23Z) - MeloForm: Generating Melody with Musical Form based on Expert Systems
and Neural Networks [146.59245563763065]
MeloFormは、エキスパートシステムとニューラルネットワークを使用して、音楽形式でメロディを生成するシステムである。
詩やコーラス形式、ロンド形式、変奏形式、ソナタ形式など、様々な形式をサポートすることができる。
論文 参考訳(メタデータ) (2022-08-30T15:44:15Z) - Re-creation of Creations: A New Paradigm for Lyric-to-Melody Generation [158.54649047794794]
Re-creation of Creations (ROC)は、歌詞からメロディ生成のための新しいパラダイムである。
ROCは、Lyric-to-Meody生成において、優れたLyric-Meody特徴アライメントを実現する。
論文 参考訳(メタデータ) (2022-08-11T08:44:47Z) - Chord-Conditioned Melody Choralization with Controllable Harmonicity and
Polyphonicity [75.02344976811062]
メロディ合唱(メロディの合唱)、すなわちユーザ・ギヴン・メロディに基づく4パートの合唱は、長い間J.S.バッハ合唱と密接に関連していた。
以前のニューラルネットワークベースのシステムは、コード進行を前提としたコラール生成にはほとんど注目しなかった。
コード進行に条件付きメロディのための4パート合唱を生成できるメロディ合唱システムであるDeepChoirを提案する。
論文 参考訳(メタデータ) (2022-02-17T02:59:36Z) - TeleMelody: Lyric-to-Melody Generation with a Template-Based Two-Stage
Method [92.36505210982648]
TeleMelody(テレメロディ)は、音楽テンプレートを備えた2段階の歌詞からメロディ生成システムである。
高品質で、制御性が良く、ペアリングされた歌詞・メロディデータに対する要求も少ないメロディを生成する。
論文 参考訳(メタデータ) (2021-09-20T15:19:33Z) - Controllable deep melody generation via hierarchical music structure
representation [14.891975420982511]
MusicFrameworksは階層的な音楽構造表現であり、フル長のメロディを作成するための多段階の生成プロセスである。
各フレーズでメロディを生成するために、2つの異なるトランスフォーマーベースネットワークを用いてリズムとベーシックメロディを生成する。
さまざまな曲をカスタマイズしたり追加したりするために、音楽フレームワークのコード、基本的なメロディ、リズム構造を変更して、それに応じてネットワークがメロディを生成する。
論文 参考訳(メタデータ) (2021-09-02T01:31:14Z) - Differential Music: Automated Music Generation Using LSTM Networks with
Representation Based on Melodic and Harmonic Intervals [0.0]
本稿では,LSTMネットワークを用いた自動作曲のための生成AIモデルを提案する。
絶対的なピッチではなく音楽の動きに基づく音楽情報の符号化に新しいアプローチをとる。
実験結果は、音楽やトーンを聴くと約束を示す。
論文 参考訳(メタデータ) (2021-08-23T23:51:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。