論文の概要: Music Harmony Generation, through Deep Learning and Using a
Multi-Objective Evolutionary Algorithm
- arxiv url: http://arxiv.org/abs/2102.07960v1
- Date: Tue, 16 Feb 2021 05:05:54 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-17 22:13:46.391999
- Title: Music Harmony Generation, through Deep Learning and Using a
Multi-Objective Evolutionary Algorithm
- Title(参考訳): 深層学習による音楽ハーモニーの生成と多目的進化アルゴリズムの利用
- Authors: Maryam Majidi and Rahil Mahdian Toroghi
- Abstract要約: 本稿では,ポリフォニック音楽生成のための遺伝的多目的進化最適化アルゴリズムを提案する。
ゴールの1つは音楽の規則と規則であり、他の2つのゴール、例えば音楽の専門家や普通のリスナーのスコアとともに、最も最適な反応を得るために進化のサイクルに適合する。
その結果,提案手法は,聞き手を引き寄せながら文法に従う調和音とともに,所望のスタイルや長さの難易度と快適さを生み出すことができることがわかった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Automatic music generation has become an epicenter research topic for many
scientists in artificial intelligence, who are also interested in the music
industry. Being a balanced combination of math and art, music in collaboration
with A.I. can simplify the generation process for new musical pieces, and ease
the interpretation of it to a tangible level. On the other hand, the artistic
nature of music and its mingling with the senses and feelings of the composer
makes the artificial generation and mathematical modeling of it infeasible. In
fact, there are no clear evaluation measures that can combine the objective
music grammar and structure with the subjective audience satisfaction goal.
Also, original music contains different elements that it is inevitable to put
together. Therefore, in this paper, a method based on a genetic multi-objective
evolutionary optimization algorithm for the generation of polyphonic music
(melody with rhythm and harmony or appropriate chords) is introduced in which
three specific goals determine the qualifications of the music generated. One
of the goals is the rules and regulations of music, which, along with the other
two goals, including the scores of music experts and ordinary listeners, fits
the cycle of evolution to get the most optimal response. The scoring of experts
and listeners separately is modeled using a Bi-LSTM neural network and has been
incorporated in the fitness function of the algorithm. The results show that
the proposed method is able to generate difficult and pleasant pieces with
desired styles and lengths, along with harmonic sounds that follow the grammar
while attracting the listener, at the same time.
- Abstract(参考訳): 音楽産業に興味を持つ多くの人工知能研究者にとって、自動音楽生成は重要な研究テーマとなっている。
数学と芸術のバランスの取れたコンビネーションであり、A.I.とのコラボレーションによる音楽。
新しい音楽作品の生成プロセスを単純化し、その解釈を具体的レベルまで容易にすることができる。
一方、音楽の芸術的性質とその作曲家の感覚と感情との混ざり合いは、その人工的な生成と数学的モデリングを不可能にします。
実際、客観的な音楽文法と構造を主観的な聴衆満足目標と組み合わせることができる明確な評価尺度は存在しない。
また、オリジナル音楽には様々な要素が含まれており、組み立ては避けられない。
そこで本稿では,3つの特定の目標が生成する音楽の資格を決定するポリフォニック音楽(リズムと調和、あるいは適切な和音)生成のための遺伝的多目的進化最適化アルゴリズムに基づく手法を提案する。
ゴールの1つは音楽の規則と規則であり、他の2つのゴール、例えば音楽の専門家や普通のリスナーのスコアとともに、最も最適な反応を得るために進化のサイクルに適合する。
専門家とリスナーのスコアリングは、Bi-LSTMニューラルネットワークを用いて個別にモデル化され、アルゴリズムの適合機能に組み込まれている。
その結果,提案手法は,聞き手を引き寄せながら文法に従う調和音とともに,所望のスタイルや長さの難易度と快適さを生み出すことができることがわかった。
関連論文リスト
- GETMusic: Generating Any Music Tracks with a Unified Representation and
Diffusion Framework [58.64512825534638]
シンボリック・ミュージック・ジェネレーションは、ユーザーが音楽を作るのに役立つ音符を作成することを目的としている。
私たちは「GETMusic」と呼ばれるフレームワークを紹介します。「GET'」は「GEnerate Music Tracks」の略です。
GETScoreは、音符をトークンとして表現し、2D構造でトークンを整理する。
提案する表現は,非自己回帰生成モデルと組み合わせて,任意のソース・ターゲットトラックの組み合わせでGETMusicに音楽を生成する。
論文 参考訳(メタデータ) (2023-05-18T09:53:23Z) - Contrastive Learning with Positive-Negative Frame Mask for Music
Representation [91.44187939465948]
本稿では,PEMRと略記したコントラッシブラーニングフレームワークに基づく,音楽表現のための正負負のフレームマスクを提案する。
我々は,同じ音楽からサンプリングした自己増強陽性/陰性の両方に対応するために,新しいコントラスト学習目標を考案した。
論文 参考訳(メタデータ) (2022-03-17T07:11:42Z) - Music-to-Dance Generation with Optimal Transport [48.92483627635586]
本稿では,音楽から3Dダンス振付を生成するためのMDOT-Net(Music-to-Dance with Optimal Transport Network)を提案する。
生成したダンス分布とグロモフ=ワッサーシュタイン距離の信頼度を評価するための最適な移動距離を導入し、ダンス分布と入力音楽の対応性を測定する。
論文 参考訳(メタデータ) (2021-12-03T09:37:26Z) - Structure-Enhanced Pop Music Generation via Harmony-Aware Learning [20.06867705303102]
構造強化されたポップ・ミュージック・ジェネレーションに調和学習を活用することを提案する。
主観的・客観的評価の結果,Harmony-Aware Hierarchical Music Transformer (HAT) が生成した楽曲の質を著しく向上させることが示された。
論文 参考訳(メタデータ) (2021-09-14T05:04:13Z) - Music Composition with Deep Learning: A Review [1.7188280334580197]
創造性のある音楽を生成するための,現在のディープラーニングモデルの能力について分析する。
理論的観点からこれらのモデルと作曲過程を比較した。
論文 参考訳(メタデータ) (2021-08-27T13:53:53Z) - MusicBERT: Symbolic Music Understanding with Large-Scale Pre-Training [97.91071692716406]
シンボリック・ミュージックの理解(シンボリック・ミュージックの理解)とは、シンボリック・データから音楽を理解することを指す。
MusicBERTは、音楽理解のための大規模な事前訓練モデルである。
論文 参考訳(メタデータ) (2021-06-10T10:13:05Z) - Musical Prosody-Driven Emotion Classification: Interpreting Vocalists
Portrayal of Emotions Through Machine Learning [0.0]
音楽の韻律の役割は、いくつかの研究が韻律と感情の強い結びつきを示しているにもかかわらず、まだ解明されていない。
本研究では,従来の機械学習アルゴリズムの入力を音楽韻律の特徴に限定する。
我々は,ボーカリストの個人データ収集手法と,アーティスト自身による個人的根拠的真理ラベル付け手法を利用する。
論文 参考訳(メタデータ) (2021-06-04T15:40:19Z) - Research on AI Composition Recognition Based on Music Rules [7.699648754969773]
モーメント抽出による楽曲ルール識別アルゴリズムを構築する。
それは、機械生成音楽のモードの安定性を特定し、それが人工知能であるかどうかを判断する。
論文 参考訳(メタデータ) (2020-10-15T14:51:24Z) - Adaptive music: Automated music composition and distribution [0.0]
進化探索に基づくアルゴリズム合成法であるメロミクスを提案する。
このシステムは、様々な種類の音楽を作るために、高い創造力と汎用性を示してきた。
これはまた、全く新しい応用のセットの出現を可能にした。
論文 参考訳(メタデータ) (2020-07-25T09:38:06Z) - Music Gesture for Visual Sound Separation [121.36275456396075]
ミュージック・ジェスチャ(Music Gesture)は、音楽演奏時の演奏者の身体と指の動きを明示的にモデル化するキーポイントに基づく構造化表現である。
まず、コンテキスト対応グラフネットワークを用いて、視覚的コンテキストと身体力学を統合し、その後、身体の動きと対応する音声信号とを関連付けるために、音声-視覚融合モデルを適用する。
論文 参考訳(メタデータ) (2020-04-20T17:53:46Z) - RL-Duet: Online Music Accompaniment Generation Using Deep Reinforcement
Learning [69.20460466735852]
本稿では,オンライン伴奏生成のための深層強化学習アルゴリズムを提案する。
提案アルゴリズムは人体に応答し,メロディック,ハーモニック,多種多様な機械部品を生成する。
論文 参考訳(メタデータ) (2020-02-08T03:53:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。