論文の概要: Attentional networks for music generation
- arxiv url: http://arxiv.org/abs/2002.03854v1
- Date: Thu, 6 Feb 2020 13:26:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-03 12:37:58.833298
- Title: Attentional networks for music generation
- Title(参考訳): 音楽生成のための注意ネットワーク
- Authors: Gullapalli Keerti, A N Vaishnavi, Prerana Mukherjee, A Sree Vidya,
Gattineni Sai Sreenithya, Deeksha Nayab
- Abstract要約: メロディック構造を再構成した古いスタイルの音楽、特にJAZZを生成するための深層学習に基づく音楽生成手法を提案する。
時系列データにおける長期的依存関係のモデル化の成功とビデオの場合の成功により、注目されるBi-LSTMは、音楽生成における自然な選択と早期利用の役割を果たす。
実験では,注目されたBi-LSTMが演奏された音楽の豊かさと技術的ニュアンスを維持することができることを確認した。
- 参考スコア(独自算出の注目度): 5.012960295592238
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Realistic music generation has always remained as a challenging problem as it
may lack structure or rationality. In this work, we propose a deep learning
based music generation method in order to produce old style music particularly
JAZZ with rehashed melodic structures utilizing a Bi-directional Long Short
Term Memory (Bi-LSTM) Neural Network with Attention. Owing to the success in
modelling long-term temporal dependencies in sequential data and its success in
case of videos, Bi-LSTMs with attention serve as the natural choice and early
utilization in music generation. We validate in our experiments that Bi-LSTMs
with attention are able to preserve the richness and technical nuances of the
music performed.
- Abstract(参考訳): リアル音楽生成は構造や合理性に欠ける可能性があるため、常に困難な問題として残されてきた。
本研究では,双方向のlong short term memory(bi-lstm)ニューラルネットワークを用いて,メロディ構造を再現した古風音楽,特にジャズを創り出すための深層学習に基づく音楽生成手法を提案する。
時系列データにおける長期的依存関係のモデル化の成功とビデオの場合の成功により、注目されるBi-LSTMは、音楽生成における自然な選択と早期利用の役割を果たす。
実験では,注目されたBi-LSTMが演奏された音楽の豊かさと技術的ニュアンスを維持することができることを確認した。
関連論文リスト
- PerceiverS: A Multi-Scale Perceiver with Effective Segmentation for Long-Term Expressive Symbolic Music Generation [5.201151187019607]
PerceiverS(セグメンテーション・アンド・スケール)は、長い構造化された表現力のある音楽を生成するために設計された新しいアーキテクチャである。
本手法は,長期的構造的依存関係と短期的表現的詳細を同時に学習することにより,記号的音楽生成を促進する。
Maestroのようなデータセットで評価された提案モデルは、コヒーレントで多様な音楽を生成する改善を実証する。
論文 参考訳(メタデータ) (2024-11-13T03:14:10Z) - MuVi: Video-to-Music Generation with Semantic Alignment and Rhythmic Synchronization [52.498942604622165]
本稿では,ビデオコンテンツに合わせた音楽を生成するためのフレームワークであるMuViについて述べる。
MuViは、特別に設計された視覚適応器を通じて映像コンテンツを分析し、文脈的および時間的に関係のある特徴を抽出する。
音声品質と時間同期の両方において, MuVi が優れた性能を示すことを示す。
論文 参考訳(メタデータ) (2024-10-16T18:44:56Z) - MMT-BERT: Chord-aware Symbolic Music Generation Based on Multitrack Music Transformer and MusicBERT [44.204383306879095]
シンボリック・マルチトラック音楽生成に特化して設計された新しいシンボリック・ミュージック表現とジェネレーティブ・アディバーショナル・ネットワーク(GAN)フレームワークを提案する。
頑健なマルチトラック・ミュージック・ジェネレータを構築するため,事前学習したMusicBERTモデルを微調整して判別器として機能し,相対論的標準損失を取り入れた。
論文 参考訳(メタデータ) (2024-09-02T03:18:56Z) - Generating Music with Structure Using Self-Similarity as Attention [0.0]
本稿では,ユーザが提供する自己相似性を従来の時間ステップに応用した新しいアプローチを用いたアテンション層を提案する。
そこで我々はSING(Simisity Incentivized Generator)システムでこれを実証した。
我々は新しい変数法を用いてMAESTROデータセット上でSINGを訓練し、その性能を注意機構なしで同じモデルと比較する。
論文 参考訳(メタデータ) (2024-06-21T20:56:12Z) - MuPT: A Generative Symbolic Music Pretrained Transformer [56.09299510129221]
音楽の事前学習におけるLarge Language Models (LLM) の適用について検討する。
生成過程の異なるトラックからの不整合対策に関連する課題に対処するために,SMT-ABC Notation(Synchronized Multi-Track ABC Notation)を提案する。
私たちのコントリビューションには、最大8192個のトークンを処理可能な一連のモデルが含まれており、トレーニングセットの象徴的な音楽データの90%をカバーしています。
論文 参考訳(メタデータ) (2024-04-09T15:35:52Z) - GETMusic: Generating Any Music Tracks with a Unified Representation and
Diffusion Framework [58.64512825534638]
シンボリック・ミュージック・ジェネレーションは、ユーザーが音楽を作るのに役立つ音符を作成することを目的としている。
私たちは「GETMusic」と呼ばれるフレームワークを紹介します。「GET'」は「GEnerate Music Tracks」の略です。
GETScoreは、音符をトークンとして表現し、2D構造でトークンを整理する。
提案する表現は,非自己回帰生成モデルと組み合わせて,任意のソース・ターゲットトラックの組み合わせでGETMusicに音楽を生成する。
論文 参考訳(メタデータ) (2023-05-18T09:53:23Z) - Museformer: Transformer with Fine- and Coarse-Grained Attention for
Music Generation [138.74751744348274]
本研究では,音楽生成に新たな細粒度・粗粒度対応トランスフォーマーであるMuseformerを提案する。
具体的には、細かな注意を払って、特定のバーのトークンは、音楽構造に最も関係のあるバーのトークンに、直接参加する。
粗い注意を払って、トークンは計算コストを減らすために、それぞれのトークンではなく他のバーの要約にのみ参加する。
論文 参考訳(メタデータ) (2022-10-19T07:31:56Z) - Music Generation Using an LSTM [52.77024349608834]
LSTM(Long Short-Term Memory)ネットワーク構造は、シリーズの次の出力の予測に非常に有用であることが証明されている。
Recurrent Neural Networks (RNN) を用いた音楽生成手法の実証
我々は、音楽生成におけるLSTMの直感、理論、応用に関する簡単な要約を提供し、この目標を達成するのに最適なネットワークを開発し、提示し、直面する問題や課題を特定し、対処し、今後のネットワーク改善の可能性を含める。
論文 参考訳(メタデータ) (2022-03-23T00:13:41Z) - Rhythm, Chord and Melody Generation for Lead Sheets using Recurrent
Neural Networks [5.57310999362848]
リードシート生成のための2段階LSTMモデルを提案し、まず曲のハーモニックなテンプレートとリズム的なテンプレートを生成し、次いで第2段階において、これらのテンプレートにメロディ音列を生成する。
主観的聴力テストは,我々のアプローチがベースラインを上回り,音楽的コヒーレンス感を高めることを示す。
論文 参考訳(メタデータ) (2020-02-21T09:36:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。