論文の概要: Using a Bi-directional LSTM Model with Attention Mechanism trained on
MIDI Data for Generating Unique Music
- arxiv url: http://arxiv.org/abs/2011.00773v1
- Date: Mon, 2 Nov 2020 06:43:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-30 13:18:12.879741
- Title: Using a Bi-directional LSTM Model with Attention Mechanism trained on
MIDI Data for Generating Unique Music
- Title(参考訳): midiデータに基づく注意機構を用いた双方向lstmモデルによる独特な楽曲生成
- Authors: Ashish Ranjan, Varun Nagesh Jolly Behera, Motahar Reza
- Abstract要約: 本稿では,MIDIデータに基づく類似音楽を生成するためのアテンション機構を備えた双方向LSTMモデルを提案する。
モデルが生成する音楽は、モデルがトレーニングする音楽のテーマ/スタイルに従う。
- 参考スコア(独自算出の注目度): 0.25559196081940677
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generating music is an interesting and challenging problem in the field of
machine learning. Mimicking human creativity has been popular in recent years,
especially in the field of computer vision and image processing. With the
advent of GANs, it is possible to generate new similar images, based on trained
data. But this cannot be done for music similarly, as music has an extra
temporal dimension. So it is necessary to understand how music is represented
in digital form. When building models that perform this generative task, the
learning and generation part is done in some high-level representation such as
MIDI (Musical Instrument Digital Interface) or scores. This paper proposes a
bi-directional LSTM (Long short-term memory) model with attention mechanism
capable of generating similar type of music based on MIDI data. The music
generated by the model follows the theme/style of the music the model is
trained on. Also, due to the nature of MIDI, the tempo, instrument, and other
parameters can be defined, and changed, post generation.
- Abstract(参考訳): 音楽の生成は、機械学習の分野で興味深い、そして難しい問題である。
人間の創造性を模倣することは近年、特にコンピュータビジョンと画像処理の分野で人気がある。
GANの出現により、トレーニングされたデータに基づいて、新しい類似した画像を生成することができる。
しかし、音楽には時間的余分な次元があるため、同様のことは音楽にはできない。
したがって、音楽がデジタル形式でどのように表現されるかを理解する必要がある。
この生成タスクを実行するモデルを構築する場合には、MIDI(Musical Instrument Digital Interface)やスコアなどのハイレベルな表現で学習と生成を行う。
そこで本稿では,MIDIデータに基づく類似音楽を生成するためのアテンション機構を備えた双方向LSTM(Long Short-term memory)モデルを提案する。
モデルが生成する音楽は、モデルがトレーニングする音楽のテーマ/スタイルに従う。
また、MIDIの性質から、テンポ、楽器、その他のパラメータを定義し、変更し、後生成することができる。
関連論文リスト
- Video2Music: Suitable Music Generation from Videos using an Affective
Multimodal Transformer model [32.801213106782335]
我々は、提供されたビデオにマッチできる生成型音楽AIフレームワーク、Video2Musicを開発した。
そこで本研究では,映像コンテンツにマッチする楽曲を感情的に生成する手法を提案する。
論文 参考訳(メタデータ) (2023-11-02T03:33:00Z) - Graph-based Polyphonic Multitrack Music Generation [9.701208207491879]
本稿では,音楽のための新しいグラフ表現と,音楽グラフの構造と内容を別々に生成する深部変分オートエンコーダを提案する。
音楽グラフの構造と内容を分離することにより、特定のタイミングでどの楽器が演奏されているかを指定することで条件生成が可能となる。
論文 参考訳(メタデータ) (2023-07-27T15:18:50Z) - Simple and Controllable Music Generation [94.61958781346176]
MusicGenは単一の言語モデル(LM)であり、圧縮された離散的な音楽表現、すなわちトークンの複数のストリームで動作する。
以前の作業とは異なり、MusicGenはシングルステージのトランスフォーマーLMと効率的なトークンインターリービングパターンで構成されている。
論文 参考訳(メタデータ) (2023-06-08T15:31:05Z) - Noise2Music: Text-conditioned Music Generation with Diffusion Models [73.74580231353684]
本研究では,テキストプロンプトから高品質な30秒音楽クリップを生成するために,一連の拡散モデルを訓練するNoss2Musicを紹介する。
生成した音声は、ジャンル、テンポ、楽器、ムード、時代など、テキストプロンプトの重要な要素を忠実に反映できるだけでなく、テキストプロンプトを忠実に反映できる。
トレーニングセットのオーディオのためにペア化されたテキストを生成し、拡散モデルによって取り込まれたテキストプロンプトの埋め込みを抽出するために使用される。
論文 参考訳(メタデータ) (2023-02-08T07:27:27Z) - Music Generation Using an LSTM [52.77024349608834]
LSTM(Long Short-Term Memory)ネットワーク構造は、シリーズの次の出力の予測に非常に有用であることが証明されている。
Recurrent Neural Networks (RNN) を用いた音楽生成手法の実証
我々は、音楽生成におけるLSTMの直感、理論、応用に関する簡単な要約を提供し、この目標を達成するのに最適なネットワークを開発し、提示し、直面する問題や課題を特定し、対処し、今後のネットワーク改善の可能性を含める。
論文 参考訳(メタデータ) (2022-03-23T00:13:41Z) - Learning to Generate Music With Sentiment [1.8275108630751844]
本稿では,特定の感情で音楽を構成するための生成的深層学習モデルを提案する。
音楽生成の他に、シンボリック音楽の感情分析にも同じモデルを用いることができる。
論文 参考訳(メタデータ) (2021-03-09T03:16:52Z) - A Transformer Based Pitch Sequence Autoencoder with MIDI Augmentation [0.0]
本研究の目的は,MIDIクリップが自動生成仮説に基づいて構成される可能性を示すモデルを得ることである。
実験結果は、CSMT(2020)のデータチャレンジにおける7ドルチームの中で、私たちのモデルが3位にランクされていることを示している。
論文 参考訳(メタデータ) (2020-10-15T13:59:58Z) - PopMAG: Pop Music Accompaniment Generation [190.09996798215738]
単一シーケンスでの同時マルチトラック生成が可能なMUlti-track MIDI表現(MuMIDI)を提案する。
MuMIDIはシーケンス長を拡大し、長期音楽モデリングの新しい課題をもたらす。
我々は,ポップミュージックの伴奏生成をPopMAGと呼ぶ。
論文 参考訳(メタデータ) (2020-08-18T02:28:36Z) - Foley Music: Learning to Generate Music from Videos [115.41099127291216]
Foley Musicは、楽器を演奏する人々に関するサイレントビデオクリップのために、可愛らしい音楽を合成できるシステムだ。
まず、ビデオから音楽生成に成功するための2つの重要な中間表現、すなわち、ビデオからのボディーキーポイントと、オーディオ録音からのMIDIイベントを識別する。
身体の動きに応じてMIDIイベントシーケンスを正確に予測できるグラフ$-$Transformerフレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-21T17:59:06Z) - RL-Duet: Online Music Accompaniment Generation Using Deep Reinforcement
Learning [69.20460466735852]
本稿では,オンライン伴奏生成のための深層強化学習アルゴリズムを提案する。
提案アルゴリズムは人体に応答し,メロディック,ハーモニック,多種多様な機械部品を生成する。
論文 参考訳(メタデータ) (2020-02-08T03:53:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。