論文の概要: Music Harmony Generation, through Deep Learning and Using a
Multi-Objective Evolutionary Algorithm
- arxiv url: http://arxiv.org/abs/2102.07960v1
- Date: Tue, 16 Feb 2021 05:05:54 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-17 22:13:46.391999
- Title: Music Harmony Generation, through Deep Learning and Using a
Multi-Objective Evolutionary Algorithm
- Title(参考訳): 深層学習による音楽ハーモニーの生成と多目的進化アルゴリズムの利用
- Authors: Maryam Majidi and Rahil Mahdian Toroghi
- Abstract要約: 本稿では,ポリフォニック音楽生成のための遺伝的多目的進化最適化アルゴリズムを提案する。
ゴールの1つは音楽の規則と規則であり、他の2つのゴール、例えば音楽の専門家や普通のリスナーのスコアとともに、最も最適な反応を得るために進化のサイクルに適合する。
その結果,提案手法は,聞き手を引き寄せながら文法に従う調和音とともに,所望のスタイルや長さの難易度と快適さを生み出すことができることがわかった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Automatic music generation has become an epicenter research topic for many
scientists in artificial intelligence, who are also interested in the music
industry. Being a balanced combination of math and art, music in collaboration
with A.I. can simplify the generation process for new musical pieces, and ease
the interpretation of it to a tangible level. On the other hand, the artistic
nature of music and its mingling with the senses and feelings of the composer
makes the artificial generation and mathematical modeling of it infeasible. In
fact, there are no clear evaluation measures that can combine the objective
music grammar and structure with the subjective audience satisfaction goal.
Also, original music contains different elements that it is inevitable to put
together. Therefore, in this paper, a method based on a genetic multi-objective
evolutionary optimization algorithm for the generation of polyphonic music
(melody with rhythm and harmony or appropriate chords) is introduced in which
three specific goals determine the qualifications of the music generated. One
of the goals is the rules and regulations of music, which, along with the other
two goals, including the scores of music experts and ordinary listeners, fits
the cycle of evolution to get the most optimal response. The scoring of experts
and listeners separately is modeled using a Bi-LSTM neural network and has been
incorporated in the fitness function of the algorithm. The results show that
the proposed method is able to generate difficult and pleasant pieces with
desired styles and lengths, along with harmonic sounds that follow the grammar
while attracting the listener, at the same time.
- Abstract(参考訳): 音楽産業に興味を持つ多くの人工知能研究者にとって、自動音楽生成は重要な研究テーマとなっている。
数学と芸術のバランスの取れたコンビネーションであり、A.I.とのコラボレーションによる音楽。
新しい音楽作品の生成プロセスを単純化し、その解釈を具体的レベルまで容易にすることができる。
一方、音楽の芸術的性質とその作曲家の感覚と感情との混ざり合いは、その人工的な生成と数学的モデリングを不可能にします。
実際、客観的な音楽文法と構造を主観的な聴衆満足目標と組み合わせることができる明確な評価尺度は存在しない。
また、オリジナル音楽には様々な要素が含まれており、組み立ては避けられない。
そこで本稿では,3つの特定の目標が生成する音楽の資格を決定するポリフォニック音楽(リズムと調和、あるいは適切な和音)生成のための遺伝的多目的進化最適化アルゴリズムに基づく手法を提案する。
ゴールの1つは音楽の規則と規則であり、他の2つのゴール、例えば音楽の専門家や普通のリスナーのスコアとともに、最も最適な反応を得るために進化のサイクルに適合する。
専門家とリスナーのスコアリングは、Bi-LSTMニューラルネットワークを用いて個別にモデル化され、アルゴリズムの適合機能に組み込まれている。
その結果,提案手法は,聞き手を引き寄せながら文法に従う調和音とともに,所望のスタイルや長さの難易度と快適さを生み出すことができることがわかった。
関連論文リスト
- Mode-conditioned music learning and composition: a spiking neural network inspired by neuroscience and psychology [5.2419221159594676]
そこで我々は,脳のメカニズムや心理的理論にインスパイアされたスパイクニューラルネットワークを提案し,音楽モードとキーを表現する。
我々の研究は、音楽を学び、生成するだけでなく、人間の認知と人工知能のギャップを埋めるシステムを作ることを目指している。
論文 参考訳(メタデータ) (2024-11-22T07:29:26Z) - A Survey of Foundation Models for Music Understanding [60.83532699497597]
この研究は、AI技術と音楽理解の交差に関する初期のレビューの1つである。
音楽理解能力に関して,近年の大規模音楽基盤モデルについて検討,分析,検証を行った。
論文 参考訳(メタデータ) (2024-09-15T03:34:14Z) - MuDiT & MuSiT: Alignment with Colloquial Expression in Description-to-Song Generation [18.181382408551574]
本稿では,口語記述から歌声生成への新たな課題を提案する。
生成されたコンテンツと口語的人間の表現の整合性に焦点を当てている。
この課題は、AIモデル内の言語理解と聴覚表現のギャップを埋めることを目的としている。
論文 参考訳(メタデータ) (2024-07-03T15:12:36Z) - MeLFusion: Synthesizing Music from Image and Language Cues using Diffusion Models [57.47799823804519]
私たちは、ミュージシャンが映画の脚本だけでなく、視覚化を通して音楽を作る方法にインスピレーションを受けています。
本稿では,テキスト記述と対応する画像からの手がかりを効果的に利用して音楽を合成するモデルであるMeLFusionを提案する。
音楽合成パイプラインに視覚情報を加えることで、生成した音楽の質が大幅に向上することを示す。
論文 参考訳(メタデータ) (2024-06-07T06:38:59Z) - ComposerX: Multi-Agent Symbolic Music Composition with LLMs [51.68908082829048]
音楽の構成は、長い依存と調和の制約で情報を理解し、生成する能力を必要とする複雑なタスクである。
現在のLLMは、このタスクで簡単に失敗し、In-Context-LearningやChain-of-Thoughtsといったモダンな技術が組み込まれても、不適切な曲を生成する。
エージェントベースのシンボリック音楽生成フレームワークであるComposerXを提案する。
論文 参考訳(メタデータ) (2024-04-28T06:17:42Z) - Contrastive Learning with Positive-Negative Frame Mask for Music
Representation [91.44187939465948]
本稿では,PEMRと略記したコントラッシブラーニングフレームワークに基づく,音楽表現のための正負負のフレームマスクを提案する。
我々は,同じ音楽からサンプリングした自己増強陽性/陰性の両方に対応するために,新しいコントラスト学習目標を考案した。
論文 参考訳(メタデータ) (2022-03-17T07:11:42Z) - Musical Prosody-Driven Emotion Classification: Interpreting Vocalists
Portrayal of Emotions Through Machine Learning [0.0]
音楽の韻律の役割は、いくつかの研究が韻律と感情の強い結びつきを示しているにもかかわらず、まだ解明されていない。
本研究では,従来の機械学習アルゴリズムの入力を音楽韻律の特徴に限定する。
我々は,ボーカリストの個人データ収集手法と,アーティスト自身による個人的根拠的真理ラベル付け手法を利用する。
論文 参考訳(メタデータ) (2021-06-04T15:40:19Z) - Research on AI Composition Recognition Based on Music Rules [7.699648754969773]
モーメント抽出による楽曲ルール識別アルゴリズムを構築する。
それは、機械生成音楽のモードの安定性を特定し、それが人工知能であるかどうかを判断する。
論文 参考訳(メタデータ) (2020-10-15T14:51:24Z) - Adaptive music: Automated music composition and distribution [0.0]
進化探索に基づくアルゴリズム合成法であるメロミクスを提案する。
このシステムは、様々な種類の音楽を作るために、高い創造力と汎用性を示してきた。
これはまた、全く新しい応用のセットの出現を可能にした。
論文 参考訳(メタデータ) (2020-07-25T09:38:06Z) - Music Gesture for Visual Sound Separation [121.36275456396075]
ミュージック・ジェスチャ(Music Gesture)は、音楽演奏時の演奏者の身体と指の動きを明示的にモデル化するキーポイントに基づく構造化表現である。
まず、コンテキスト対応グラフネットワークを用いて、視覚的コンテキストと身体力学を統合し、その後、身体の動きと対応する音声信号とを関連付けるために、音声-視覚融合モデルを適用する。
論文 参考訳(メタデータ) (2020-04-20T17:53:46Z) - RL-Duet: Online Music Accompaniment Generation Using Deep Reinforcement
Learning [69.20460466735852]
本稿では,オンライン伴奏生成のための深層強化学習アルゴリズムを提案する。
提案アルゴリズムは人体に応答し,メロディック,ハーモニック,多種多様な機械部品を生成する。
論文 参考訳(メタデータ) (2020-02-08T03:53:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。