論文の概要: The Jazz Transformer on the Front Line: Exploring the Shortcomings of
AI-composed Music through Quantitative Measures
- arxiv url: http://arxiv.org/abs/2008.01307v1
- Date: Tue, 4 Aug 2020 03:32:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-03 01:08:45.723690
- Title: The Jazz Transformer on the Front Line: Exploring the Shortcomings of
AI-composed Music through Quantitative Measures
- Title(参考訳): 最前線のジャズ変圧器 : 定量的測定によるAI合成音楽の欠点を探る
- Authors: Shih-Lun Wu and Yi-Hsuan Yang
- Abstract要約: 本稿では,ジャズ音楽のリードシートをモデル化するために,Transformer-XLと呼ばれるニューラルシーケンスモデルを利用する生成モデルであるJazz Transformerを提案する。
次に、異なる視点から生成された合成の一連の計算分析を行う。
我々の研究は、なぜ現在まで機械生成音楽が人類の芸術に及ばないのか分析的な方法で示し、今後の自動作曲への取り組みがさらに追求されるよう、いくつかの目標を設定している。
- 参考スコア(独自算出の注目度): 36.49582705724548
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper presents the Jazz Transformer, a generative model that utilizes a
neural sequence model called the Transformer-XL for modeling lead sheets of
Jazz music. Moreover, the model endeavors to incorporate structural events
present in the Weimar Jazz Database (WJazzD) for inducing structures in the
generated music. While we are able to reduce the training loss to a low value,
our listening test suggests however a clear gap between the average ratings of
the generated and real compositions. We therefore go one step further and
conduct a series of computational analysis of the generated compositions from
different perspectives. This includes analyzing the statistics of the pitch
class, grooving, and chord progression, assessing the structureness of the
music with the help of the fitness scape plot, and evaluating the model's
understanding of Jazz music through a MIREX-like continuation prediction task.
Our work presents in an analytical manner why machine-generated music to date
still falls short of the artwork of humanity, and sets some goals for future
work on automatic composition to further pursue.
- Abstract(参考訳): 本稿では,ジャズ音楽のリードシートのモデル化にtransformer-xlと呼ばれるニューラルシーケンスモデルを用いた生成モデルであるjazz transformerを提案する。
さらに、モデルがWeimar Jazz Database(WJazzD)に存在する構造イベントを組み込んで、生成された音楽の構造を誘導する。
トレーニング損失を低い値に抑えることができるが、聴取テストでは、生成した楽曲の平均評価と実際の構成との明確なギャップが示唆されている。
そこで我々はさらに一歩進んで、異なる観点から生成された合成の一連の計算分析を行う。
これには、ピッチクラス、グルービング、コード進行の統計分析、フィットネススケーププロットの助けを借りて音楽の構造を評価すること、ミレックスのような継続予測タスクを通じてジャズ音楽に対するモデルの理解を評価することが含まれる。
我々の研究は、なぜ現在まで機械生成音楽が人類の芸術に及ばないのか分析的な方法で示し、今後の自動作曲の目標を更に追求する。
関連論文リスト
- MusicFlow: Cascaded Flow Matching for Text Guided Music Generation [53.63948108922333]
MusicFlowは、フローマッチングに基づくケースドテキストから音楽への生成モデルである。
学習目的としてマスク予測を活用することで,音楽の充実や継続といった他のタスクにモデルを一般化することができる。
論文 参考訳(メタデータ) (2024-10-27T15:35:41Z) - Music102: An $D_{12}$-equivariant transformer for chord progression accompaniment [0.0]
Music102は、D12等価変圧器によるコード進行伴奏を強化する。
先行する音楽知識を符号化することにより、モデルはメロディとコードシーケンスの双方で等価性を維持する。
この研究は、離散音楽領域への自己注意機構と層正規化の適応性を示す。
論文 参考訳(メタデータ) (2024-10-23T03:11:01Z) - MuseBarControl: Enhancing Fine-Grained Control in Symbolic Music Generation through Pre-Training and Counterfactual Loss [51.85076222868963]
制御信号と対応する音楽トークンを直接リンクする事前学習タスクを導入する。
次に、生成した音楽と制御プロンプトとの整合性を向上する新たな対実的損失を実現する。
論文 参考訳(メタデータ) (2024-07-05T08:08:22Z) - MuPT: A Generative Symbolic Music Pretrained Transformer [56.09299510129221]
音楽の事前学習におけるLarge Language Models (LLM) の適用について検討する。
生成過程の異なるトラックからの不整合対策に関連する課題に対処するために,SMT-ABC Notation(Synchronized Multi-Track ABC Notation)を提案する。
私たちのコントリビューションには、最大8192個のトークンを処理可能な一連のモデルが含まれており、トレーニングセットの象徴的な音楽データの90%をカバーしています。
論文 参考訳(メタデータ) (2024-04-09T15:35:52Z) - A Survey of Music Generation in the Context of Interaction [3.6522809408725223]
機械学習は、メロディーとポリフォニックの両方の曲の作曲と生成に成功している。
これらのモデルのほとんどは、ライブインタラクションによる人間と機械の共創には適していない。
論文 参考訳(メタデータ) (2024-02-23T12:41:44Z) - ProgGP: From GuitarPro Tablature Neural Generation To Progressive Metal
Production [0.0]
この作業は、173のプログレッシブメタル曲のカスタムデータセットであるProgGP上で、事前訓練されたトランスフォーマーモデルを微調整することで拡張する。
私たちのモデルは、複数のギター、ベースギター、ドラム、ピアノ、オーケストラのパーツを生成することができます。
そこで本研究では,プログレッシブ・メタル・ソングを制作するためのツールとして,人間のメタル・プロデューサによって完全生産・混合されたツールとして,モデルの価値を実証する。
論文 参考訳(メタデータ) (2023-07-11T15:19:47Z) - Simple and Controllable Music Generation [94.61958781346176]
MusicGenは単一の言語モデル(LM)であり、圧縮された離散的な音楽表現、すなわちトークンの複数のストリームで動作する。
以前の作業とは異なり、MusicGenはシングルステージのトランスフォーマーLMと効率的なトークンインターリービングパターンで構成されている。
論文 参考訳(メタデータ) (2023-06-08T15:31:05Z) - Quantized GAN for Complex Music Generation from Dance Videos [48.196705493763986]
D2M-GAN(Dance2Music-GAN, D2M-GAN, D2M-GAN)は、ダンスビデオに条件付けされた楽曲のサンプルを生成する新しいマルチモーダルフレームワークである。
提案フレームワークは,ダンスビデオフレームと人体の動きを入力とし,対応する入力に付随する音楽サンプルを生成することを学習する。
論文 参考訳(メタデータ) (2022-04-01T17:53:39Z) - Continuous Melody Generation via Disentangled Short-Term Representations
and Structural Conditions [14.786601824794369]
ユーザが指定したシンボリックシナリオと過去の音楽コンテキストを組み合わせることで,メロディーを構成するモデルを提案する。
本モデルでは,8拍子の音符列を基本単位として長い旋律を生成でき,一貫したリズムパターン構造を他の特定の歌と共有することができる。
その結果,本モデルが生成する音楽は,顕著な繰り返し構造,豊かな動機,安定したリズムパターンを有する傾向が示唆された。
論文 参考訳(メタデータ) (2020-02-05T06:23:44Z) - Modeling Musical Structure with Artificial Neural Networks [0.0]
音楽構造モデリングのさまざまな側面に対する人工知能の適用について検討する。
Gated Autoencoder(GAE)というコネクショナリストモデルを用いて,楽曲の断片間の変換を学習する方法を示す。
本稿では,ポリフォニック・ミュージックを区間の連続として表現するGAEの特別な予測訓練を提案する。
論文 参考訳(メタデータ) (2020-01-06T18:35:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。