論文の概要: Learning Hierarchical Metrical Structure Beyond Measures
- arxiv url: http://arxiv.org/abs/2209.10259v1
- Date: Wed, 21 Sep 2022 11:08:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-22 17:38:11.898607
- Title: Learning Hierarchical Metrical Structure Beyond Measures
- Title(参考訳): 測度を超えた階層的計量構造を学ぶ
- Authors: Junyan Jiang, Daniel Chin, Yixiao Zhang, Gus Xia
- Abstract要約: 階層構造アノテーションは、音楽情報検索とコンピュータ音楽学に役立つ。
スコアから階層的メートル法構造を自動的に抽出するデータ駆動手法を提案する。
提案手法は,異なるオーケストレーション環境下でのルールベースアプローチよりも優れた性能を示す。
- 参考スコア(独自算出の注目度): 3.7294116330265394
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Music contains hierarchical structures beyond beats and measures. While
hierarchical structure annotations are helpful for music information retrieval
and computer musicology, such annotations are scarce in current digital music
databases. In this paper, we explore a data-driven approach to automatically
extract hierarchical metrical structures from scores. We propose a new model
with a Temporal Convolutional Network-Conditional Random Field (TCN-CRF)
architecture. Given a symbolic music score, our model takes in an arbitrary
number of voices in a beat-quantized form, and predicts a 4-level hierarchical
metrical structure from downbeat-level to section-level. We also annotate a
dataset using RWC-POP MIDI files to facilitate training and evaluation. We show
by experiments that the proposed method performs better than the rule-based
approach under different orchestration settings. We also perform some simple
musicological analysis on the model predictions. All demos, datasets and
pre-trained models are publicly available on Github.
- Abstract(参考訳): 音楽はビートや測度を超えた階層構造を含んでいる。
階層構造アノテーションは音楽情報検索やコンピュータ音楽学に役立つが、現在のデジタル音楽データベースではそのようなアノテーションは少ない。
本稿では,スコアから階層的計量構造を自動的に抽出するデータ駆動手法を提案する。
本稿では,時間的畳み込みネットワーク-畳み込みランダムフィールド(TCN-CRF)アーキテクチャを用いた新しいモデルを提案する。
記号的な楽譜が与えられた場合、我々のモデルはビート量子化形式で任意の数の音声を取り込み、ダウンビートレベルからセクションレベルまでの4レベルの階層的計量構造を予測する。
また、RWC-POP MIDIファイルを用いてデータセットに注釈を付け、トレーニングと評価を容易にする。
実験により,提案手法は異なるオーケストレーション環境下でのルールベースアプローチよりも優れた性能を示す。
また,モデル予測について簡単な音楽学的解析を行った。
デモ、データセット、事前トレーニングされたモデルはすべて、githubで公開されている。
関連論文リスト
- MARBLE: Music Audio Representation Benchmark for Universal Evaluation [79.25065218663458]
我々は,UniversaL Evaluation(MARBLE)のための音楽音響表現ベンチマークを紹介する。
音響、パフォーマンス、スコア、ハイレベルな記述を含む4つの階層レベルを持つ包括的分類を定義することで、様々な音楽情報検索(MIR)タスクのベンチマークを提供することを目的としている。
次に、8つの公開データセット上の14のタスクに基づいて統一されたプロトコルを構築し、ベースラインとして音楽録音で開発されたすべてのオープンソース事前学習モデルの表現を公平かつ標準的に評価する。
論文 参考訳(メタデータ) (2023-06-18T12:56:46Z) - Self-Supervised Hierarchical Metrical Structure Modeling [3.167685495996986]
本稿では,記号的音楽信号と音声信号の両方に対する階層的距離構造をモデル化する新しい手法を提案する。
モデルはビート整列音楽信号のトレーニングと推測を行い、ビートからセクションレベルまで8層階層の計量木を予測する。
すべてのデモ、ソースコード、事前訓練されたモデルはGitHubで公開されている。
論文 参考訳(メタデータ) (2022-10-31T10:05:19Z) - Autoregressive Search Engines: Generating Substrings as Document
Identifiers [53.0729058170278]
自動回帰言語モデルは、回答を生成するデファクト標準として現れています。
これまでの研究は、探索空間を階層構造に分割する方法を探究してきた。
本研究では,検索空間の任意の構造を強制しない代替として,経路内のすべてのngramを識別子として使用することを提案する。
論文 参考訳(メタデータ) (2022-04-22T10:45:01Z) - Exploring single-song autoencoding schemes for audio-based music
structure analysis [6.037383467521294]
この研究は、低次元のオートエンコーダを訓練し、特定の歌に特有の潜在/圧縮表現を学習する「ピース固有」オートエンコード方式を探求する。
提案手法は,3秒耐性を有する教師付き最先端手法の性能レベルを実現する。
論文 参考訳(メタデータ) (2021-10-27T13:48:25Z) - Hierarchical Recurrent Neural Networks for Conditional Melody Generation
with Long-term Structure [0.0]
階層型リカレントニューラルネットワークを用いた条件付きメロディ生成モデルを提案する。
このモデルは、与えられたコード伴奏に基づいて長期構造を持つメロディーを生成する。
聴取試験の結果,CM-HRNNは長期的構造と総合評価においてアテンションRNNよりも優れていた。
論文 参考訳(メタデータ) (2021-02-19T08:22:26Z) - A framework to compare music generative models using automatic
evaluation metrics extended to rhythm [69.2737664640826]
本稿では,前回の研究で提示された,リズムを考慮せず,設計決定を下すための枠組みを取り上げ,単音素音楽作成における2つのrnnメモリセルの性能評価のためにリズムサポートを付加した。
モデルでは,音素変換の処理を考慮し,リズムサポートを付加した幾何学に基づく自動計測値を用いて,生成した楽曲の質を評価する。
論文 参考訳(メタデータ) (2021-01-19T15:04:46Z) - Sequence Generation using Deep Recurrent Networks and Embeddings: A
study case in music [69.2737664640826]
本稿では,異なる種類の記憶機構(メモリセル)について評価し,音楽合成分野におけるその性能について検討する。
提案したアーキテクチャの性能を自動評価するために,定量的な測定値のセットが提示される。
論文 参考訳(メタデータ) (2020-12-02T14:19:19Z) - Score-informed Networks for Music Performance Assessment [64.12728872707446]
MPAモデルにスコア情報を組み込んだディープニューラルネットワークに基づく手法はまだ研究されていない。
スコアインフォームド性能評価が可能な3つのモデルを提案する。
論文 参考訳(メタデータ) (2020-08-01T07:46:24Z) - dMelodies: A Music Dataset for Disentanglement Learning [70.90415511736089]
我々は、研究者が様々な領域でアルゴリズムの有効性を実証するのに役立つ新しいシンボリック・ミュージック・データセットを提案する。
これはまた、音楽用に特別に設計されたアルゴリズムを評価する手段を提供する。
データセットは、遠絡学習のためのディープネットワークのトレーニングとテストに十分な大きさ(約13万データポイント)である。
論文 参考訳(メタデータ) (2020-07-29T19:20:07Z) - Music Generation with Temporal Structure Augmentation [0.0]
提案手法は,歌の結末をカウントダウンしたコネクショニスト生成モデルと,余分な入力特徴としてメーターマーカーを付加する。
LSTMセルを持つRNNアーキテクチャは、教師付きシーケンス学習設定でノッティンガムフォークミュージックデータセットに基づいて訓練される。
実験では、両方のアノテーションの予測性能が改善された。
論文 参考訳(メタデータ) (2020-04-21T19:19:58Z) - Modeling Musical Structure with Artificial Neural Networks [0.0]
音楽構造モデリングのさまざまな側面に対する人工知能の適用について検討する。
Gated Autoencoder(GAE)というコネクショナリストモデルを用いて,楽曲の断片間の変換を学習する方法を示す。
本稿では,ポリフォニック・ミュージックを区間の連続として表現するGAEの特別な予測訓練を提案する。
論文 参考訳(メタデータ) (2020-01-06T18:35:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。