論文の概要: Attentional networks for music generation
- arxiv url: http://arxiv.org/abs/2002.03854v1
- Date: Thu, 6 Feb 2020 13:26:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-03 12:37:58.833298
- Title: Attentional networks for music generation
- Title(参考訳): 音楽生成のための注意ネットワーク
- Authors: Gullapalli Keerti, A N Vaishnavi, Prerana Mukherjee, A Sree Vidya,
Gattineni Sai Sreenithya, Deeksha Nayab
- Abstract要約: メロディック構造を再構成した古いスタイルの音楽、特にJAZZを生成するための深層学習に基づく音楽生成手法を提案する。
時系列データにおける長期的依存関係のモデル化の成功とビデオの場合の成功により、注目されるBi-LSTMは、音楽生成における自然な選択と早期利用の役割を果たす。
実験では,注目されたBi-LSTMが演奏された音楽の豊かさと技術的ニュアンスを維持することができることを確認した。
- 参考スコア(独自算出の注目度): 5.012960295592238
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Realistic music generation has always remained as a challenging problem as it
may lack structure or rationality. In this work, we propose a deep learning
based music generation method in order to produce old style music particularly
JAZZ with rehashed melodic structures utilizing a Bi-directional Long Short
Term Memory (Bi-LSTM) Neural Network with Attention. Owing to the success in
modelling long-term temporal dependencies in sequential data and its success in
case of videos, Bi-LSTMs with attention serve as the natural choice and early
utilization in music generation. We validate in our experiments that Bi-LSTMs
with attention are able to preserve the richness and technical nuances of the
music performed.
- Abstract(参考訳): リアル音楽生成は構造や合理性に欠ける可能性があるため、常に困難な問題として残されてきた。
本研究では,双方向のlong short term memory(bi-lstm)ニューラルネットワークを用いて,メロディ構造を再現した古風音楽,特にジャズを創り出すための深層学習に基づく音楽生成手法を提案する。
時系列データにおける長期的依存関係のモデル化の成功とビデオの場合の成功により、注目されるBi-LSTMは、音楽生成における自然な選択と早期利用の役割を果たす。
実験では,注目されたBi-LSTMが演奏された音楽の豊かさと技術的ニュアンスを維持することができることを確認した。
関連論文リスト
- GETMusic: Generating Any Music Tracks with a Unified Representation and
Diffusion Framework [58.64512825534638]
シンボリック・ミュージック・ジェネレーションは、ユーザーが音楽を作るのに役立つ音符を作成することを目的としている。
私たちは「GETMusic」と呼ばれるフレームワークを紹介します。「GET'」は「GEnerate Music Tracks」の略です。
GETScoreは、音符をトークンとして表現し、2D構造でトークンを整理する。
提案する表現は,非自己回帰生成モデルと組み合わせて,任意のソース・ターゲットトラックの組み合わせでGETMusicに音楽を生成する。
論文 参考訳(メタデータ) (2023-05-18T09:53:23Z) - Pitchclass2vec: Symbolic Music Structure Segmentation with Chord
Embeddings [0.8701566919381222]
シンボリックコードアノテーションに基づく新しい楽曲セグメンテーション手法であるpitchclass2vecを提案する。
提案アルゴリズムは,Long-Short term memory(LSTM)ニューラルネットワークをベースとして,現場における記号コードアノテーションに基づく最先端技術より優れている。
論文 参考訳(メタデータ) (2023-03-24T10:23:15Z) - Museformer: Transformer with Fine- and Coarse-Grained Attention for
Music Generation [138.74751744348274]
本研究では,音楽生成に新たな細粒度・粗粒度対応トランスフォーマーであるMuseformerを提案する。
具体的には、細かな注意を払って、特定のバーのトークンは、音楽構造に最も関係のあるバーのトークンに、直接参加する。
粗い注意を払って、トークンは計算コストを減らすために、それぞれのトークンではなく他のバーの要約にのみ参加する。
論文 参考訳(メタデータ) (2022-10-19T07:31:56Z) - Music Generation Using an LSTM [52.77024349608834]
LSTM(Long Short-Term Memory)ネットワーク構造は、シリーズの次の出力の予測に非常に有用であることが証明されている。
Recurrent Neural Networks (RNN) を用いた音楽生成手法の実証
我々は、音楽生成におけるLSTMの直感、理論、応用に関する簡単な要約を提供し、この目標を達成するのに最適なネットワークを開発し、提示し、直面する問題や課題を特定し、対処し、今後のネットワーク改善の可能性を含める。
論文 参考訳(メタデータ) (2022-03-23T00:13:41Z) - MusicBERT: Symbolic Music Understanding with Large-Scale Pre-Training [97.91071692716406]
シンボリック・ミュージックの理解(シンボリック・ミュージックの理解)とは、シンボリック・データから音楽を理解することを指す。
MusicBERTは、音楽理解のための大規模な事前訓練モデルである。
論文 参考訳(メタデータ) (2021-06-10T10:13:05Z) - Sequence Generation using Deep Recurrent Networks and Embeddings: A
study case in music [69.2737664640826]
本稿では,異なる種類の記憶機構(メモリセル)について評価し,音楽合成分野におけるその性能について検討する。
提案したアーキテクチャの性能を自動評価するために,定量的な測定値のセットが提示される。
論文 参考訳(メタデータ) (2020-12-02T14:19:19Z) - Music Gesture for Visual Sound Separation [121.36275456396075]
ミュージック・ジェスチャ(Music Gesture)は、音楽演奏時の演奏者の身体と指の動きを明示的にモデル化するキーポイントに基づく構造化表現である。
まず、コンテキスト対応グラフネットワークを用いて、視覚的コンテキストと身体力学を統合し、その後、身体の動きと対応する音声信号とを関連付けるために、音声-視覚融合モデルを適用する。
論文 参考訳(メタデータ) (2020-04-20T17:53:46Z) - Rhythm, Chord and Melody Generation for Lead Sheets using Recurrent
Neural Networks [5.57310999362848]
リードシート生成のための2段階LSTMモデルを提案し、まず曲のハーモニックなテンプレートとリズム的なテンプレートを生成し、次いで第2段階において、これらのテンプレートにメロディ音列を生成する。
主観的聴力テストは,我々のアプローチがベースラインを上回り,音楽的コヒーレンス感を高めることを示す。
論文 参考訳(メタデータ) (2020-02-21T09:36:24Z) - Continuous Melody Generation via Disentangled Short-Term Representations
and Structural Conditions [14.786601824794369]
ユーザが指定したシンボリックシナリオと過去の音楽コンテキストを組み合わせることで,メロディーを構成するモデルを提案する。
本モデルでは,8拍子の音符列を基本単位として長い旋律を生成でき,一貫したリズムパターン構造を他の特定の歌と共有することができる。
その結果,本モデルが生成する音楽は,顕著な繰り返し構造,豊かな動機,安定したリズムパターンを有する傾向が示唆された。
論文 参考訳(メタデータ) (2020-02-05T06:23:44Z) - Modeling Musical Structure with Artificial Neural Networks [0.0]
音楽構造モデリングのさまざまな側面に対する人工知能の適用について検討する。
Gated Autoencoder(GAE)というコネクショナリストモデルを用いて,楽曲の断片間の変換を学習する方法を示す。
本稿では,ポリフォニック・ミュージックを区間の連続として表現するGAEの特別な予測訓練を提案する。
論文 参考訳(メタデータ) (2020-01-06T18:35:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。