論文の概要: Music Generation using Deep Learning
- arxiv url: http://arxiv.org/abs/2105.09046v1
- Date: Wed, 19 May 2021 10:27:58 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-20 18:34:47.583886
- Title: Music Generation using Deep Learning
- Title(参考訳): 深層学習を用いた音楽生成
- Authors: Vaishali Ingale, Anush Mohan, Divit Adlakha, Krishna Kumar and Mohit
Gupta
- Abstract要約: 提案したアプローチは、NottinghamデータセットからABCの表記を受け取り、ニューラルネットワークの入力として強化されるようにエンコードする。
主な目的は、任意の音符でニューラルネットワークを入力し、良い曲が生成されるまで、音符に基づいてネットワーク処理とシーケンスの増強を行うことである。
- 参考スコア(独自算出の注目度): 10.155748914174003
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: This paper explores the idea of utilising Long Short-Term Memory neural
networks (LSTMNN) for the generation of musical sequences in ABC notation. The
proposed approach takes ABC notations from the Nottingham dataset and encodes
it to beefed as input for the neural networks. The primary objective is to
input the neural networks with an arbitrary note, let the network process and
augment a sequence based on the note until a good piece of music is produced.
Multiple tunings have been done to amend the parameters of the network for
optimal generation. The output is assessed on the basis of rhythm, harmony, and
grammar accuracy.
- Abstract(参考訳): 本稿では,Long Short-Term Memory Neural Network (LSTMNN) を用いたABC表記における音楽系列の生成について検討する。
提案されたアプローチは、nottinghamデータセットからabc記法を取り、それをニューラルネットワークの入力としてエンコードする。
第一の目的は、ニューラルネットワークを任意の音符で入力し、ネットワークに処理させ、良質な音楽が生成されるまで音符に基づくシーケンスを増強することである。
最適生成のために、ネットワークのパラメータを修正するために複数のチューニングが行われた。
出力は、リズム、調和、文法の正確さに基づいて評価される。
関連論文リスト
- N-Gram Unsupervised Compoundation and Feature Injection for Better
Symbolic Music Understanding [27.554853901252084]
音楽系列は隣接要素間の強い相関関係を示し、自然言語処理(NLP)によるN-gram技術の主要な候補となる。
本稿では,N-gramアプローチを利用したシンボリック・ミュージック・シーケンス理解のための新しい手法NG-Midiformerを提案する。
論文 参考訳(メタデータ) (2023-12-13T06:08:37Z) - Roman Numeral Analysis with Graph Neural Networks: Onset-wise
Predictions from Note-wise Features [7.817685358710508]
本稿では,シンボリック音楽におけるローマ数字の自動解析への新たなアプローチを提案する。
本稿では,グラフニューラルネットワーク(GNN)に基づく新しい手法を提案する。
以上の結果から,ChordGNNは既存の最先端モデルよりも優れていることが示された。
論文 参考訳(メタデータ) (2023-07-07T12:20:56Z) - StitchNet: Composing Neural Networks from Pre-Trained Fragments [3.638431342539701]
我々は,新しいニューラルネットワーク生成パラダイムであるStitchNetを提案する。
複数のトレーニング済みニューラルネットワークの断片を縫合する。
これらの断片を縫い合わせることで、従来の訓練されたネットワークに匹敵する精度でニューラルネットワークを作ることができることを示す。
論文 参考訳(メタデータ) (2023-01-05T08:02:30Z) - A Scalable Graph Neural Network Decoder for Short Block Codes [49.25571364253986]
エッジ重み付きグラフニューラルネットワーク(EW-GNN)に基づく短絡符号の復号化アルゴリズムを提案する。
EW-GNNデコーダは、繰り返しメッセージパッシング構造を持つタナーグラフで動作する。
EW-GNNデコーダは,復号誤り率の観点から,BP法および深層学習に基づくBP法より優れていることを示す。
論文 参考訳(メタデータ) (2022-11-13T17:13:12Z) - Music Generation Using an LSTM [52.77024349608834]
LSTM(Long Short-Term Memory)ネットワーク構造は、シリーズの次の出力の予測に非常に有用であることが証明されている。
Recurrent Neural Networks (RNN) を用いた音楽生成手法の実証
我々は、音楽生成におけるLSTMの直感、理論、応用に関する簡単な要約を提供し、この目標を達成するのに最適なネットワークを開発し、提示し、直面する問題や課題を特定し、対処し、今後のネットワーク改善の可能性を含める。
論文 参考訳(メタデータ) (2022-03-23T00:13:41Z) - Logsig-RNN: a novel network for robust and efficient skeleton-based
action recognition [3.775860173040509]
我々は、ログネイティブ層とリカレント型ニューラルネットワーク(RNN)を組み合わせた新しいモジュール、Logsig-RNNを提案する。
特に,簡単な経路変換層とLogsig-RNNを組み合わせることで,Chalearn2013ジェスチャデータの最先端精度を実現する。
論文 参考訳(メタデータ) (2021-10-25T14:47:15Z) - Overcoming Catastrophic Forgetting in Graph Neural Networks [50.900153089330175]
破滅的な忘れは、ニューラルネットワークが新しいタスクを学ぶ前に学んだ知識を「忘れる」傾向を指します。
本稿では,この問題を克服し,グラフニューラルネットワーク(GNN)における継続学習を強化するための新しいスキームを提案する。
私たちのアプローチの中心には、トポロジ認識重量保存(TWP)と呼ばれる汎用モジュールがあります。
論文 参考訳(メタデータ) (2020-12-10T22:30:25Z) - Sequence Generation using Deep Recurrent Networks and Embeddings: A
study case in music [69.2737664640826]
本稿では,異なる種類の記憶機構(メモリセル)について評価し,音楽合成分野におけるその性能について検討する。
提案したアーキテクチャの性能を自動評価するために,定量的な測定値のセットが提示される。
論文 参考訳(メタデータ) (2020-12-02T14:19:19Z) - GANs & Reels: Creating Irish Music using a Generative Adversarial
Network [2.6604997762611204]
本稿では, 逐次成分を伴わない生成的逆数ネットワークを用いたメロディ生成手法を提案する。
音楽生成は、リカレントニューラルネットワークを使用して成功し、モデルが真正な鳴き声を生成するのに役立つシーケンス情報を学ぶ。
論文 参考訳(メタデータ) (2020-10-29T17:16:22Z) - Network Adjustment: Channel Search Guided by FLOPs Utilization Ratio [101.84651388520584]
本稿では,ネットワークの精度をFLOPの関数として考慮した,ネットワーク調整という新しいフレームワークを提案する。
標準画像分類データセットと幅広いベースネットワークの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2020-04-06T15:51:00Z) - Encoding-based Memory Modules for Recurrent Neural Networks [79.42778415729475]
本稿では,リカレントニューラルネットワークの設計とトレーニングの観点から,記憶サブタスクについて考察する。
本稿では,線形オートエンコーダを組み込んだエンコーディングベースのメモリコンポーネントを特徴とする新しいモデルであるLinear Memory Networkを提案する。
論文 参考訳(メタデータ) (2020-01-31T11:14:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。