論文の概要: GGA-MG: Generative Genetic Algorithm for Music Generation
- arxiv url: http://arxiv.org/abs/2004.04687v1
- Date: Tue, 7 Apr 2020 22:45:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-15 22:43:46.260231
- Title: GGA-MG: Generative Genetic Algorithm for Music Generation
- Title(参考訳): GGA-MG:音楽生成のための生成遺伝的アルゴリズム
- Authors: Majid Farzaneh and Rahil Mahdian Toroghi
- Abstract要約: メロディを自動生成する生成遺伝的アルゴリズム(GGA)を提案する。
実験結果から,GGA法は自然遷移とリズム誤差を伴わないメロディを生成可能であることが明らかとなった。
- 参考スコア(独自算出の注目度): 2.0305676256390934
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Music Generation (MG) is an interesting research topic that links the art of
music and Artificial Intelligence (AI). The goal is to train an artificial
composer to generate infinite, fresh, and pleasurable musical pieces. Music has
different parts such as melody, harmony, and rhythm. In this paper, we propose
a Generative Genetic Algorithm (GGA) to produce a melody automatically. The
main GGA uses a Long Short-Term Memory (LSTM) recurrent neural network as the
objective function, which should be trained by a spectrum of bad-to-good
melodies. These melodies have to be provided by another GGA with a different
objective function. Good melodies have been provided by CAMPINs collection. We
have considered the rhythm in this work, too. The experimental results clearly
show that the proposed GGA method is able to generate eligible melodies with
natural transitions and without rhythm error.
- Abstract(参考訳): 音楽生成(MG)は、音楽と人工知能(AI)を結びつける興味深い研究トピックである。
目標は、人工的な作曲家を訓練し、無限で新鮮で快楽な音楽作品を作り出すことである。
音楽にはメロディ、ハーモニー、リズムなど様々な部分がある。
本稿では,メロディ自動生成のための生成遺伝的アルゴリズム(GGA)を提案する。
メインのGGAは、目的関数としてLSTM(Long Short-Term Memory)リカレントニューラルネットワークを使用し、悪いから良いメロディのスペクトルでトレーニングする必要がある。
これらの旋律は異なる目的関数を持つ別のGGAによって提供されなければならない。
優れたメロディーはCAMPINsコレクションによって提供されています。
私たちはこの作品のリズムも検討した。
実験結果から,GGA法は自然遷移とリズム誤差を伴わないメロディを生成可能であることが明らかとなった。
関連論文リスト
- An End-to-End Approach for Chord-Conditioned Song Generation [14.951089833579063]
歌唱課題は、歌詞から声楽と伴奏からなる音楽を合成することを目的としている。
この問題を軽減するため,コードから曲生成ネットワークまで,音楽作曲から重要な概念を導入する。
そこで本研究では,CSG(Chord-Conditioned Song Generator)と呼ばれる新しいモデルを提案する。
論文 参考訳(メタデータ) (2024-09-10T08:07:43Z) - Choir Transformer: Generating Polyphonic Music with Relative Attention
on Transformer [4.866650264773479]
そこで我々はChoir Transformerというポリフォニック音楽生成ニューラルネットワークを提案する。
Choir Transformerのパフォーマンスは、以前の最先端の精度4.06%を上回っている。
実際に、生成されたメロディとリズムを所定の入力に応じて調整することができる。
論文 参考訳(メタデータ) (2023-08-01T06:44:15Z) - Simple and Controllable Music Generation [94.61958781346176]
MusicGenは単一の言語モデル(LM)であり、圧縮された離散的な音楽表現、すなわちトークンの複数のストリームで動作する。
以前の作業とは異なり、MusicGenはシングルステージのトランスフォーマーLMと効率的なトークンインターリービングパターンで構成されている。
論文 参考訳(メタデータ) (2023-06-08T15:31:05Z) - GETMusic: Generating Any Music Tracks with a Unified Representation and
Diffusion Framework [58.64512825534638]
シンボリック・ミュージック・ジェネレーションは、ユーザーが音楽を作るのに役立つ音符を作成することを目的としている。
私たちは「GETMusic」と呼ばれるフレームワークを紹介します。「GET'」は「GEnerate Music Tracks」の略です。
GETScoreは、音符をトークンとして表現し、2D構造でトークンを整理する。
提案する表現は,非自己回帰生成モデルと組み合わせて,任意のソース・ターゲットトラックの組み合わせでGETMusicに音楽を生成する。
論文 参考訳(メタデータ) (2023-05-18T09:53:23Z) - Melody transcription via generative pre-training [86.08508957229348]
メロディの書き起こしの鍵となる課題は、様々な楽器のアンサンブルや音楽スタイルを含む幅広いオーディオを処理できる方法を構築することである。
この課題に対処するために、広帯域オーディオの生成モデルであるJukebox(Dhariwal et al. 2020)の表現を活用する。
広義音楽のクラウドソースアノテーションから50ドル(約5,400円)のメロディ書き起こしを含む新しいデータセットを導出する。
論文 参考訳(メタデータ) (2022-12-04T18:09:23Z) - Re-creation of Creations: A New Paradigm for Lyric-to-Melody Generation [158.54649047794794]
Re-creation of Creations (ROC)は、歌詞からメロディ生成のための新しいパラダイムである。
ROCは、Lyric-to-Meody生成において、優れたLyric-Meody特徴アライメントを実現する。
論文 参考訳(メタデータ) (2022-08-11T08:44:47Z) - Machine Composition of Korean Music via Topological Data Analysis and
Artificial Neural Network [6.10183951877597]
楽曲を直接供給するのではなく、所定の音楽データに埋め込まれた作曲原理を機械に教える機械合成法を提案する。
ColorblackOverlap行列は、新しい楽曲をアルゴリズムで合成し、目的の人工ニューラルネットワークに向けてシード音楽を提供する。
論文 参考訳(メタデータ) (2022-03-29T12:11:31Z) - Chord-Conditioned Melody Choralization with Controllable Harmonicity and
Polyphonicity [75.02344976811062]
メロディ合唱(メロディの合唱)、すなわちユーザ・ギヴン・メロディに基づく4パートの合唱は、長い間J.S.バッハ合唱と密接に関連していた。
以前のニューラルネットワークベースのシステムは、コード進行を前提としたコラール生成にはほとんど注目しなかった。
コード進行に条件付きメロディのための4パート合唱を生成できるメロディ合唱システムであるDeepChoirを提案する。
論文 参考訳(メタデータ) (2022-02-17T02:59:36Z) - Controllable deep melody generation via hierarchical music structure
representation [14.891975420982511]
MusicFrameworksは階層的な音楽構造表現であり、フル長のメロディを作成するための多段階の生成プロセスである。
各フレーズでメロディを生成するために、2つの異なるトランスフォーマーベースネットワークを用いてリズムとベーシックメロディを生成する。
さまざまな曲をカスタマイズしたり追加したりするために、音楽フレームワークのコード、基本的なメロディ、リズム構造を変更して、それに応じてネットワークがメロディを生成する。
論文 参考訳(メタデータ) (2021-09-02T01:31:14Z) - Music Harmony Generation, through Deep Learning and Using a
Multi-Objective Evolutionary Algorithm [0.0]
本稿では,ポリフォニック音楽生成のための遺伝的多目的進化最適化アルゴリズムを提案する。
ゴールの1つは音楽の規則と規則であり、他の2つのゴール、例えば音楽の専門家や普通のリスナーのスコアとともに、最も最適な反応を得るために進化のサイクルに適合する。
その結果,提案手法は,聞き手を引き寄せながら文法に従う調和音とともに,所望のスタイルや長さの難易度と快適さを生み出すことができることがわかった。
論文 参考訳(メタデータ) (2021-02-16T05:05:54Z) - RL-Duet: Online Music Accompaniment Generation Using Deep Reinforcement
Learning [69.20460466735852]
本稿では,オンライン伴奏生成のための深層強化学習アルゴリズムを提案する。
提案アルゴリズムは人体に応答し,メロディック,ハーモニック,多種多様な機械部品を生成する。
論文 参考訳(メタデータ) (2020-02-08T03:53:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。