論文の概要: Multi-Genre Music Transformer -- Composing Full Length Musical Piece
- arxiv url: http://arxiv.org/abs/2301.02385v1
- Date: Fri, 6 Jan 2023 05:27:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-10 00:36:08.500211
- Title: Multi-Genre Music Transformer -- Composing Full Length Musical Piece
- Title(参考訳): 多世代音楽変換器-完全長楽譜
- Authors: Abhinav Kaushal Keshari
- Abstract要約: このプロジェクトの目的は,より適応的な学習プロセスを通じて楽曲の制作を学ぶマルチジェネラルトランスフォーマーを実装することである。
我々は多言語複合語データセットを構築し、このデータセットに基づいて訓練した線形変換器を実装した。
私たちはこのMulti-Genre Transformerと呼んでいます。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In the task of generating music, the art factor plays a big role and is a
great challenge for AI. Previous work involving adversarial training to produce
new music pieces and modeling the compatibility of variety in music (beats,
tempo, musical stems) demonstrated great examples of learning this task. Though
this was limited to generating mashups or learning features from tempo and key
distributions to produce similar patterns. Compound Word Transformer was able
to represent music generation task as a sequence generation challenge involving
musical events defined by compound words. These musical events give a more
accurate description of notes progression, chord change, harmony and the art
factor. The objective of the project is to implement a Multi-Genre Transformer
which learns to produce music pieces through more adaptive learning process
involving more challenging task where genres or form of the composition is also
considered. We built a multi-genre compound word dataset, implemented a linear
transformer which was trained on this dataset. We call this Multi-Genre
Transformer, which was able to generate full length new musical pieces which is
diverse and comparable to original tracks. The model trains 2-5 times faster
than other models discussed.
- Abstract(参考訳): 音楽を生成するタスクにおいて、アートファクタは大きな役割を担い、AIにとって大きな課題である。
従来は、新しい楽曲を制作するための敵対的な訓練や、様々な音楽(ビート、テンポ、音楽ステム)の互換性をモデル化する作業は、この課題を学習する素晴らしい例であった。
これはマッシュアップやテンポや鍵分布から学習的特徴を発生させることに限られていた。
複合語トランスフォーマーは、複合語で定義された音楽イベントを含むシーケンス生成チャレンジとして音楽生成タスクを表現することができた。
これらの音楽イベントは、音符の進行、コードの変更、調和、芸術的要素をより正確に記述する。
本研究の目的は,楽曲のジャンルや形式も考慮した課題を含む,より適応的な学習プロセスを通じて楽曲の制作を学ぶマルチジャンルトランスフォーマーの実装である。
我々は,複数種類の複合語データセットを構築し,このデータセット上で学習した線形トランスフォーマを実装した。
このマルチジャンルトランスフォーマーは、オリジナル曲に匹敵する多種多様な新曲をフルタイムで生成することができた。
モデルは他のモデルより2~5倍速い速度で走行する。
関連論文リスト
- MuPT: A Generative Symbolic Music Pretrained Transformer [56.09299510129221]
音楽の事前学習におけるLarge Language Models (LLM) の適用について検討する。
生成過程の異なるトラックからの不整合対策に関連する課題に対処するために,SMT-ABC Notation(Synchronized Multi-Track ABC Notation)を提案する。
私たちのコントリビューションには、最大8192個のトークンを処理可能な一連のモデルが含まれており、トレーニングセットの象徴的な音楽データの90%をカバーしています。
論文 参考訳(メタデータ) (2024-04-09T15:35:52Z) - Impact of time and note duration tokenizations on deep learning symbolic
music modeling [0.0]
共通トークン化手法を解析し、時間と音符の持続時間表現を実験する。
明示的な情報がタスクによってより良い結果をもたらすことを実証する。
論文 参考訳(メタデータ) (2023-10-12T16:56:37Z) - Simple and Controllable Music Generation [94.61958781346176]
MusicGenは単一の言語モデル(LM)であり、圧縮された離散的な音楽表現、すなわちトークンの複数のストリームで動作する。
以前の作業とは異なり、MusicGenはシングルステージのトランスフォーマーLMと効率的なトークンインターリービングパターンで構成されている。
論文 参考訳(メタデータ) (2023-06-08T15:31:05Z) - Generating music with sentiment using Transformer-GANs [0.0]
本研究では,人間の感情から得られるデータによって条件付けられた記号音楽の生成モデルを提案する。
我々は,効率の良い線形バージョンの注意と識別器を用いることで,上記の問題に対処しようと試みている。
論文 参考訳(メタデータ) (2022-12-21T15:59:35Z) - Quantized GAN for Complex Music Generation from Dance Videos [48.196705493763986]
D2M-GAN(Dance2Music-GAN, D2M-GAN, D2M-GAN)は、ダンスビデオに条件付けされた楽曲のサンプルを生成する新しいマルチモーダルフレームワークである。
提案フレームワークは,ダンスビデオフレームと人体の動きを入力とし,対応する入力に付随する音楽サンプルを生成することを学習する。
論文 参考訳(メタデータ) (2022-04-01T17:53:39Z) - Music-to-Dance Generation with Optimal Transport [48.92483627635586]
本稿では,音楽から3Dダンス振付を生成するためのMDOT-Net(Music-to-Dance with Optimal Transport Network)を提案する。
生成したダンス分布とグロモフ=ワッサーシュタイン距離の信頼度を評価するための最適な移動距離を導入し、ダンス分布と入力音楽の対応性を測定する。
論文 参考訳(メタデータ) (2021-12-03T09:37:26Z) - Calliope -- A Polyphonic Music Transformer [9.558051115598657]
ポリフォニック音楽のマルチトラックシーケンスを効率的にモデル化するためのトランスフォーマーに基づく新しいオートエンコーダモデルCalliopeを提案する。
実験により,我々のモデルは,音楽シーケンスの再構築と生成における技術状況を改善することができることが示された。
論文 参考訳(メタデータ) (2021-07-08T08:18:57Z) - MuseMorphose: Full-Song and Fine-Grained Music Style Transfer with Just
One Transformer VAE [36.9033909878202]
トランスフォーマーと可変オートエンコーダ(VAE)は、シンボリック(例えばMIDI)ドメイン音楽生成に広く採用されている。
本稿では,両強みを示す単一のモデルを構築するために,この2つをまとめることに興味がある。
実験により、musemorphoseはrecurrent neural network(rnn)よりも多くのスタイル転送タスクで広く使われているメトリクスを先行技術で上回っていることが示されている。
論文 参考訳(メタデータ) (2021-05-10T03:44:03Z) - A Comprehensive Survey on Deep Music Generation: Multi-level
Representations, Algorithms, Evaluations, and Future Directions [10.179835761549471]
本稿では,深層学習を用いた音楽生成レベルの違いによる様々な作曲課題の概要について述べる。
さらに,多様なタスクに適したデータセットを要約し,音楽表現,評価方法,および異なるレベルの課題について考察し,最後にいくつかの今後の方向性を指摘する。
論文 参考訳(メタデータ) (2020-11-13T08:01:20Z) - Incorporating Music Knowledge in Continual Dataset Augmentation for
Music Generation [69.06413031969674]
Aug-Genは、リソース制約のあるドメインでトレーニングされた任意の音楽生成システムに対するデータセット拡張の方法である。
我々は、Aug-Gen をトランスフォーマーベースのコラール生成に J.S. Bach のスタイルで適用し、これによりより長いトレーニングが可能となり、より優れた生成出力が得られることを示す。
論文 参考訳(メタデータ) (2020-06-23T21:06:15Z) - RL-Duet: Online Music Accompaniment Generation Using Deep Reinforcement
Learning [69.20460466735852]
本稿では,オンライン伴奏生成のための深層強化学習アルゴリズムを提案する。
提案アルゴリズムは人体に応答し,メロディック,ハーモニック,多種多様な機械部品を生成する。
論文 参考訳(メタデータ) (2020-02-08T03:53:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。