論文の概要: Emotion-Driven Melody Harmonization via Melodic Variation and Functional Representation
- arxiv url: http://arxiv.org/abs/2407.20176v2
- Date: Wed, 25 Sep 2024 05:23:17 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-08 14:16:02.083161
- Title: Emotion-Driven Melody Harmonization via Melodic Variation and Functional Representation
- Title(参考訳): メロディ変化と機能表現による感情駆動型メロディ調和
- Authors: Jingyue Huang, Yi-Hsuan Yang,
- Abstract要約: 感情駆動のメロディは、望ましい感情を伝えるために、1つのメロディのための多様なハーモニーを生成することを目的としている。
以前の研究では、異なるコードで同じメロディを調和させることで、リードシートの知覚的価値を変えることが困難であった。
本稿では,シンボリック音楽の新たな機能表現を提案する。
- 参考スコア(独自算出の注目度): 16.790582113573453
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Emotion-driven melody harmonization aims to generate diverse harmonies for a single melody to convey desired emotions. Previous research found it hard to alter the perceived emotional valence of lead sheets only by harmonizing the same melody with different chords, which may be attributed to the constraints imposed by the melody itself and the limitation of existing music representation. In this paper, we propose a novel functional representation for symbolic music. This new method takes musical keys into account, recognizing their significant role in shaping music's emotional character through major-minor tonality. It also allows for melodic variation with respect to keys and addresses the problem of data scarcity for better emotion modeling. A Transformer is employed to harmonize key-adaptable melodies, allowing for keys determined in rule-based or model-based manner. Experimental results confirm the effectiveness of our new representation in generating key-aware harmonies, with objective and subjective evaluations affirming the potential of our approach to convey specific valence for versatile melody.
- Abstract(参考訳): 感情駆動のメロディ調和は、望ましい感情を伝えるために、1つのメロディのための多様なハーモニーを生成することを目的としている。
これまでの研究では、メロディ自体の制約と既存の音楽表現の制限に起因して、異なるコードで同じメロディを調和させることで、リードシートの知覚的価値を変えることは困難であった。
本稿では,シンボリック音楽の新たな機能表現を提案する。
この新しい手法は、音楽のキーを考慮に入れ、音楽の感情的性格を大小音節を通して形作る上で重要な役割を担っている。
また、キーに関するメロディックなバリエーションを可能にし、データ不足の問題に対処して、より良い感情モデリングを可能にする。
トランスフォーマーは、キー適応可能なメロディを調和させるために使用され、ルールベースまたはモデルベースで決定されるキーを可能にする。
実験により,キー認識調和生成における新しい表現の有効性が確認され,目的的,主観的評価により,多目的メロディの特定の価度を伝達するアプローチの可能性が確認された。
関連論文リスト
- Emotion-driven Piano Music Generation via Two-stage Disentanglement and Functional Representation [19.139752434303688]
感情的な側面を管理することは、自動音楽生成の課題である。
本稿では,ピアノ演奏における感情のゆがみについて,2段階の枠組みを用いて検討する。
論文 参考訳(メタデータ) (2024-07-30T16:29:28Z) - Emotion Manipulation Through Music -- A Deep Learning Interactive Visual Approach [0.0]
我々は,AIツールを用いて歌の感情的内容を操作する新しい方法を提案する。
私たちのゴールは、元のメロディをできるだけそのままにして、望ましい感情を達成することです。
この研究は、オンデマンドのカスタム音楽生成、既存の作品の自動リミックス、感情の進行に合わせて調整された音楽プレイリストに寄与する可能性がある。
論文 参考訳(メタデータ) (2024-06-12T20:12:29Z) - MeLFusion: Synthesizing Music from Image and Language Cues using Diffusion Models [57.47799823804519]
私たちは、ミュージシャンが映画の脚本だけでなく、視覚化を通して音楽を作る方法にインスピレーションを受けています。
本稿では,テキスト記述と対応する画像からの手がかりを効果的に利用して音楽を合成するモデルであるMeLFusionを提案する。
音楽合成パイプラインに視覚情報を加えることで、生成した音楽の質が大幅に向上することを示す。
論文 参考訳(メタデータ) (2024-06-07T06:38:59Z) - Emotion-Conditioned Melody Harmonization with Hierarchical Variational
Autoencoder [11.635877697635449]
LSTMに基づく階層的変分自動エンコーダ(LHVAE)を提案する。
LHVAEは、グローバル音楽とローカル音楽の特性をモデル化するために、潜伏変数と感情条件を異なるレベルで組み込んでいる。
目的実験の結果,提案モデルが他のLSTMモデルより優れていることが示された。
論文 参考訳(メタデータ) (2023-06-06T14:28:57Z) - MeloForm: Generating Melody with Musical Form based on Expert Systems
and Neural Networks [146.59245563763065]
MeloFormは、エキスパートシステムとニューラルネットワークを使用して、音楽形式でメロディを生成するシステムである。
詩やコーラス形式、ロンド形式、変奏形式、ソナタ形式など、様々な形式をサポートすることができる。
論文 参考訳(メタデータ) (2022-08-30T15:44:15Z) - Re-creation of Creations: A New Paradigm for Lyric-to-Melody Generation [158.54649047794794]
Re-creation of Creations (ROC)は、歌詞からメロディ生成のための新しいパラダイムである。
ROCは、Lyric-to-Meody生成において、優れたLyric-Meody特徴アライメントを実現する。
論文 参考訳(メタデータ) (2022-08-11T08:44:47Z) - Chord-Conditioned Melody Choralization with Controllable Harmonicity and
Polyphonicity [75.02344976811062]
メロディ合唱(メロディの合唱)、すなわちユーザ・ギヴン・メロディに基づく4パートの合唱は、長い間J.S.バッハ合唱と密接に関連していた。
以前のニューラルネットワークベースのシステムは、コード進行を前提としたコラール生成にはほとんど注目しなかった。
コード進行に条件付きメロディのための4パート合唱を生成できるメロディ合唱システムであるDeepChoirを提案する。
論文 参考訳(メタデータ) (2022-02-17T02:59:36Z) - A-Muze-Net: Music Generation by Composing the Harmony based on the
Generated Melody [91.22679787578438]
ピアノ音楽のMidiファイルを生成する方法を提案する。
この方法は、左手を右手に固定した2つのネットワークを用いて、左右の手をモデル化する。
ミディは音階に不変な方法で表現され、メロディはハーモニーを調和させる目的で表現される。
論文 参考訳(メタデータ) (2021-11-25T09:45:53Z) - Music Gesture for Visual Sound Separation [121.36275456396075]
ミュージック・ジェスチャ(Music Gesture)は、音楽演奏時の演奏者の身体と指の動きを明示的にモデル化するキーポイントに基づく構造化表現である。
まず、コンテキスト対応グラフネットワークを用いて、視覚的コンテキストと身体力学を統合し、その後、身体の動きと対応する音声信号とを関連付けるために、音声-視覚融合モデルを適用する。
論文 参考訳(メタデータ) (2020-04-20T17:53:46Z) - Exploring Inherent Properties of the Monophonic Melody of Songs [10.055143995729415]
本稿では,音韻メロディの解釈可能な特徴の集合を計算目的で提案する。
これらの特徴は数学的形式だけでなく、作曲家の直観にも考慮されている。
これらの特徴は、合唱的な作曲の実践であっても、多くのジャンルの歌において普遍的に人々によって考慮されている。
論文 参考訳(メタデータ) (2020-03-20T14:13:16Z) - Structural characterization of musical harmonies [4.416484585765029]
本研究では,エビデンスを収集する数値法を用いて変調を検出し,検出した調音性に基づいて,各調音成分の構造解析に非あいまいな文法を用いるハイブリッド手法を提案する。
XVIIとXVIII世紀の音楽による実験では、ほぼ97%のケースにおいて、少なくとも2つの和音の誤りで変調の正確な点を検出することができた。
論文 参考訳(メタデータ) (2019-12-27T23:15:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。