論文の概要: The Jazz Transformer on the Front Line: Exploring the Shortcomings of
AI-composed Music through Quantitative Measures
- arxiv url: http://arxiv.org/abs/2008.01307v1
- Date: Tue, 4 Aug 2020 03:32:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-03 01:08:45.723690
- Title: The Jazz Transformer on the Front Line: Exploring the Shortcomings of
AI-composed Music through Quantitative Measures
- Title(参考訳): 最前線のジャズ変圧器 : 定量的測定によるAI合成音楽の欠点を探る
- Authors: Shih-Lun Wu and Yi-Hsuan Yang
- Abstract要約: 本稿では,ジャズ音楽のリードシートをモデル化するために,Transformer-XLと呼ばれるニューラルシーケンスモデルを利用する生成モデルであるJazz Transformerを提案する。
次に、異なる視点から生成された合成の一連の計算分析を行う。
我々の研究は、なぜ現在まで機械生成音楽が人類の芸術に及ばないのか分析的な方法で示し、今後の自動作曲への取り組みがさらに追求されるよう、いくつかの目標を設定している。
- 参考スコア(独自算出の注目度): 36.49582705724548
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper presents the Jazz Transformer, a generative model that utilizes a
neural sequence model called the Transformer-XL for modeling lead sheets of
Jazz music. Moreover, the model endeavors to incorporate structural events
present in the Weimar Jazz Database (WJazzD) for inducing structures in the
generated music. While we are able to reduce the training loss to a low value,
our listening test suggests however a clear gap between the average ratings of
the generated and real compositions. We therefore go one step further and
conduct a series of computational analysis of the generated compositions from
different perspectives. This includes analyzing the statistics of the pitch
class, grooving, and chord progression, assessing the structureness of the
music with the help of the fitness scape plot, and evaluating the model's
understanding of Jazz music through a MIREX-like continuation prediction task.
Our work presents in an analytical manner why machine-generated music to date
still falls short of the artwork of humanity, and sets some goals for future
work on automatic composition to further pursue.
- Abstract(参考訳): 本稿では,ジャズ音楽のリードシートのモデル化にtransformer-xlと呼ばれるニューラルシーケンスモデルを用いた生成モデルであるjazz transformerを提案する。
さらに、モデルがWeimar Jazz Database(WJazzD)に存在する構造イベントを組み込んで、生成された音楽の構造を誘導する。
トレーニング損失を低い値に抑えることができるが、聴取テストでは、生成した楽曲の平均評価と実際の構成との明確なギャップが示唆されている。
そこで我々はさらに一歩進んで、異なる観点から生成された合成の一連の計算分析を行う。
これには、ピッチクラス、グルービング、コード進行の統計分析、フィットネススケーププロットの助けを借りて音楽の構造を評価すること、ミレックスのような継続予測タスクを通じてジャズ音楽に対するモデルの理解を評価することが含まれる。
我々の研究は、なぜ現在まで機械生成音楽が人類の芸術に及ばないのか分析的な方法で示し、今後の自動作曲の目標を更に追求する。
関連論文リスト
- A Survey of Music Generation in the Context of Interaction [3.6522809408725223]
機械学習は、メロディーとポリフォニックの両方の曲の作曲と生成に成功している。
これらのモデルのほとんどは、ライブインタラクションによる人間と機械の共創には適していない。
論文 参考訳(メタデータ) (2024-02-23T12:41:44Z) - ProgGP: From GuitarPro Tablature Neural Generation To Progressive Metal
Production [0.0]
この作業は、173のプログレッシブメタル曲のカスタムデータセットであるProgGP上で、事前訓練されたトランスフォーマーモデルを微調整することで拡張する。
私たちのモデルは、複数のギター、ベースギター、ドラム、ピアノ、オーケストラのパーツを生成することができます。
そこで本研究では,プログレッシブ・メタル・ソングを制作するためのツールとして,人間のメタル・プロデューサによって完全生産・混合されたツールとして,モデルの価値を実証する。
論文 参考訳(メタデータ) (2023-07-11T15:19:47Z) - Simple and Controllable Music Generation [94.61958781346176]
MusicGenは単一の言語モデル(LM)であり、圧縮された離散的な音楽表現、すなわちトークンの複数のストリームで動作する。
以前の作業とは異なり、MusicGenはシングルステージのトランスフォーマーLMと効率的なトークンインターリービングパターンで構成されている。
論文 参考訳(メタデータ) (2023-06-08T15:31:05Z) - Exploring the Efficacy of Pre-trained Checkpoints in Text-to-Music
Generation Task [86.72661027591394]
テキスト記述から完全で意味論的に一貫したシンボリック音楽の楽譜を生成する。
テキスト・音楽生成タスクにおける自然言語処理のための公開チェックポイントの有効性について検討する。
実験結果から, BLEUスコアと編集距離の類似性において, 事前学習によるチェックポイントの使用による改善が統計的に有意であることが示唆された。
論文 参考訳(メタデータ) (2022-11-21T07:19:17Z) - The Power of Reuse: A Multi-Scale Transformer Model for Structural
Dynamic Segmentation in Symbolic Music Generation [6.0949335132843965]
シンボリック・ミュージック・ジェネレーションは、生成モデルの文脈表現能力に依存している。
粗大デコーダと細小デコーダを用いて,グローバルおよびセクションレベルのコンテキストをモデル化するマルチスケールトランスフォーマを提案する。
本モデルは2つのオープンMIDIデータセットで評価され,実験により,同時代のシンボリック・ミュージック・ジェネレーション・モデルよりも優れた性能を示した。
論文 参考訳(メタデータ) (2022-05-17T18:48:14Z) - Quantized GAN for Complex Music Generation from Dance Videos [48.196705493763986]
D2M-GAN(Dance2Music-GAN, D2M-GAN, D2M-GAN)は、ダンスビデオに条件付けされた楽曲のサンプルを生成する新しいマルチモーダルフレームワークである。
提案フレームワークは,ダンスビデオフレームと人体の動きを入力とし,対応する入力に付随する音楽サンプルを生成することを学習する。
論文 参考訳(メタデータ) (2022-04-01T17:53:39Z) - A framework to compare music generative models using automatic
evaluation metrics extended to rhythm [69.2737664640826]
本稿では,前回の研究で提示された,リズムを考慮せず,設計決定を下すための枠組みを取り上げ,単音素音楽作成における2つのrnnメモリセルの性能評価のためにリズムサポートを付加した。
モデルでは,音素変換の処理を考慮し,リズムサポートを付加した幾何学に基づく自動計測値を用いて,生成した楽曲の質を評価する。
論文 参考訳(メタデータ) (2021-01-19T15:04:46Z) - Bach or Mock? A Grading Function for Chorales in the Style of J.S. Bach [74.09517278785519]
本稿では,J.S.バッハ様式の4パート合唱曲を重要な音楽的特徴とともに評価するグレーディング機能を提案する。
この機能は,Bach合唱曲とモデル生成の合唱曲を区別する上で,人間専門家より優れていることを示す。
論文 参考訳(メタデータ) (2020-06-23T21:02:55Z) - Continuous Melody Generation via Disentangled Short-Term Representations
and Structural Conditions [14.786601824794369]
ユーザが指定したシンボリックシナリオと過去の音楽コンテキストを組み合わせることで,メロディーを構成するモデルを提案する。
本モデルでは,8拍子の音符列を基本単位として長い旋律を生成でき,一貫したリズムパターン構造を他の特定の歌と共有することができる。
その結果,本モデルが生成する音楽は,顕著な繰り返し構造,豊かな動機,安定したリズムパターンを有する傾向が示唆された。
論文 参考訳(メタデータ) (2020-02-05T06:23:44Z) - Modeling Musical Structure with Artificial Neural Networks [0.0]
音楽構造モデリングのさまざまな側面に対する人工知能の適用について検討する。
Gated Autoencoder(GAE)というコネクショナリストモデルを用いて,楽曲の断片間の変換を学習する方法を示す。
本稿では,ポリフォニック・ミュージックを区間の連続として表現するGAEの特別な予測訓練を提案する。
論文 参考訳(メタデータ) (2020-01-06T18:35:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。