論文の概要: Symbolic Music Structure Analysis with Graph Representations and
Changepoint Detection Methods
- arxiv url: http://arxiv.org/abs/2303.13881v1
- Date: Fri, 24 Mar 2023 09:45:11 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-27 15:07:43.795331
- Title: Symbolic Music Structure Analysis with Graph Representations and
Changepoint Detection Methods
- Title(参考訳): グラフ表現と変化点検出を用いたシンボリック音楽構造解析
- Authors: Carlos Hernandez-Olivan, Sonia Rubio Llamas, Jose R. Beltran
- Abstract要約: シンボリック音楽の形式や構造を,ノルム,G-PELT,G-Windowの3つの手法を提案する。
我々は,記号曲をグラフ表現で符号化し,隣接行列の斬新さを計算することで,記号曲の構造をうまく表現できることを発見した。
- 参考スコア(独自算出の注目度): 1.1677169430445211
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Music Structure Analysis is an open research task in Music Information
Retrieval (MIR). In the past, there have been several works that attempt to
segment music into the audio and symbolic domains, however, the identification
and segmentation of the music structure at different levels is still an open
research problem in this area. In this work we propose three methods, two of
which are novel graph-based algorithms that aim to segment symbolic music by
its form or structure: Norm, G-PELT and G-Window. We performed an ablation
study with two public datasets that have different forms or structures in order
to compare such methods varying their parameter values and comparing the
performance against different music styles. We have found that encoding
symbolic music with graph representations and computing the novelty of
Adjacency Matrices obtained from graphs represent the structure of symbolic
music pieces well without the need to extract features from it. We are able to
detect the boundaries with an online unsupervised changepoint detection method
with a F_1 of 0.5640 for a 1 bar tolerance in one of the public datasets that
we used for testing our methods. We also provide the performance results of the
algorithms at different levels of structure, high, medium and low, to show how
the parameters of the proposed methods have to be adjusted depending on the
level. We added the best performing method with its parameters for each
structure level to musicaiz, an open source python package, to facilitate the
reproducibility and usability of this work. We hope that this methods could be
used to improve other MIR tasks such as music generation with structure, music
classification or key changes detection.
- Abstract(参考訳): 音楽構造分析は音楽情報検索(MIR)におけるオープンな研究課題である。
過去には、楽曲を音響領域と記号領域に分割しようとする作品がいくつかあるが、音楽構造の異なるレベルでの識別と分節化は、まだこの分野では未解決の課題である。
本研究は,3つの手法を提案する。そのうちの2つは,その形式や構造によって記号的音楽を分割することを目的とした,新しいグラフベースのアルゴリズムである。
本研究では,異なる形態や構造を持つ2つの公開データセットを用いたアブレーション実験を行い,それらのパラメータ値の異なる手法を比較し,異なる音楽スタイルと比較した。
グラフ表現によるシンボリック音楽を符号化し,グラフから得られる隣接行列の新規性を計算することで,特徴を抽出せずにシンボリック楽曲の構造を表現できることがわかった。
オンラインの教師なしのchangepoint検出メソッドで境界を検出でき、この方法のテストに使用した公開データセットの1つで、1バーの許容性に対して、f_1が 0.5640 である。
また,提案手法のパラメータが,そのレベルに応じてどのように調整されるかを示すため,構造,高,中,低の異なるレベルでのアルゴリズムの性能評価結果も提供する。
本研究の再現性とユーザビリティを高めるため,各構造レベルのパラメータを,オープンソースのpythonパッケージである musicaiz に追加した。
この手法が、構造、音楽分類、キーチェンジ検出などの他のMIRタスクを改善するために使用できることを願っている。
関連論文リスト
- Music Genre Classification: A Comparative Analysis of CNN and XGBoost
Approaches with Mel-frequency cepstral coefficients and Mel Spectrograms [0.0]
提案した畳み込みニューラルネットワーク(CNN)、完全連結層(FC)を持つVGG16、異なる特徴に対するeXtreme Gradient Boosting(XGBoost)アプローチの3つのモデルの性能について検討した。
さらに,データ前処理フェーズにデータセグメンテーションを適用することで,CNNの性能を大幅に向上させることができる。
論文 参考訳(メタデータ) (2024-01-09T01:50:31Z) - GETMusic: Generating Any Music Tracks with a Unified Representation and
Diffusion Framework [58.64512825534638]
シンボリック・ミュージック・ジェネレーションは、ユーザーが音楽を作るのに役立つ音符を作成することを目的としている。
私たちは「GETMusic」と呼ばれるフレームワークを紹介します。「GET'」は「GEnerate Music Tracks」の略です。
GETScoreは、音符をトークンとして表現し、2D構造でトークンを整理する。
提案する表現は,非自己回帰生成モデルと組み合わせて,任意のソース・ターゲットトラックの組み合わせでGETMusicに音楽を生成する。
論文 参考訳(メタデータ) (2023-05-18T09:53:23Z) - Exploring the Efficacy of Pre-trained Checkpoints in Text-to-Music
Generation Task [86.72661027591394]
テキスト記述から完全で意味論的に一貫したシンボリック音楽の楽譜を生成する。
テキスト・音楽生成タスクにおける自然言語処理のための公開チェックポイントの有効性について検討する。
実験結果から, BLEUスコアと編集距離の類似性において, 事前学習によるチェックポイントの使用による改善が統計的に有意であることが示唆された。
論文 参考訳(メタデータ) (2022-11-21T07:19:17Z) - Learning Hierarchical Metrical Structure Beyond Measures [3.7294116330265394]
階層構造アノテーションは、音楽情報検索とコンピュータ音楽学に役立つ。
スコアから階層的メートル法構造を自動的に抽出するデータ駆動手法を提案する。
提案手法は,異なるオーケストレーション環境下でのルールベースアプローチよりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-09-21T11:08:52Z) - Cadence Detection in Symbolic Classical Music using Graph Neural
Networks [7.817685358710508]
本稿では,シンボルスコアのグラフ表現を中間的手段として提示し,ケイデンス検出課題を解決する。
グラフ畳み込みネットワークを用いた不均衡ノード分類問題としてケイデンス検出にアプローチする。
実験の結果,グラフ畳み込みは,非局所的コンテキストを符号化する特殊な特徴を考案する必要がなく,ケイデンス検出を支援する非局所的特徴を学習できることが示唆された。
論文 参考訳(メタデータ) (2022-08-31T12:39:57Z) - Unsupervised Learning of Deep Features for Music Segmentation [8.528384027684192]
音楽セグメンテーション(英: Music segmentation)は、音楽セグメンテーションの境界を識別し、ラベル付けする問題である。
様々な楽曲セグメンテーションアルゴリズムの性能は、音声を表現するために選択された音声機能に依存している。
本研究では,畳み込みニューラルネットワーク(CNN)を用いたディープ・フィーチャー・埋め込みの教師なしトレーニングを音楽セグメンテーションのために検討した。
論文 参考訳(メタデータ) (2021-08-30T01:55:44Z) - Structure-Aware Audio-to-Score Alignment using Progressively Dilated
Convolutional Neural Networks [8.669338893753885]
音楽演奏と楽譜の間の構造的差異の同定は、音声とスコアのアライメントにおいて難しいが不可欠なステップである。
本稿では、進化的に拡張された畳み込みニューラルネットワークを用いて、そのような違いを検出する新しい手法を提案する。
論文 参考訳(メタデータ) (2021-01-31T05:14:58Z) - A framework to compare music generative models using automatic
evaluation metrics extended to rhythm [69.2737664640826]
本稿では,前回の研究で提示された,リズムを考慮せず,設計決定を下すための枠組みを取り上げ,単音素音楽作成における2つのrnnメモリセルの性能評価のためにリズムサポートを付加した。
モデルでは,音素変換の処理を考慮し,リズムサポートを付加した幾何学に基づく自動計測値を用いて,生成した楽曲の質を評価する。
論文 参考訳(メタデータ) (2021-01-19T15:04:46Z) - dMelodies: A Music Dataset for Disentanglement Learning [70.90415511736089]
我々は、研究者が様々な領域でアルゴリズムの有効性を実証するのに役立つ新しいシンボリック・ミュージック・データセットを提案する。
これはまた、音楽用に特別に設計されたアルゴリズムを評価する手段を提供する。
データセットは、遠絡学習のためのディープネットワークのトレーニングとテストに十分な大きさ(約13万データポイント)である。
論文 参考訳(メタデータ) (2020-07-29T19:20:07Z) - Music Gesture for Visual Sound Separation [121.36275456396075]
ミュージック・ジェスチャ(Music Gesture)は、音楽演奏時の演奏者の身体と指の動きを明示的にモデル化するキーポイントに基づく構造化表現である。
まず、コンテキスト対応グラフネットワークを用いて、視覚的コンテキストと身体力学を統合し、その後、身体の動きと対応する音声信号とを関連付けるために、音声-視覚融合モデルを適用する。
論文 参考訳(メタデータ) (2020-04-20T17:53:46Z) - Multi-Modal Music Information Retrieval: Augmenting Audio-Analysis with
Visual Computing for Improved Music Video Analysis [91.3755431537592]
この論文は、音声分析とコンピュータビジョンを組み合わせて、マルチモーダルの観点から音楽情報検索(MIR)タスクにアプローチする。
本研究の主な仮説は、ジャンルやテーマなど特定の表現的カテゴリーを視覚的内容のみに基づいて認識できるという観察に基づいている。
実験は、3つのMIRタスクに対して行われ、アーティスト識別、音楽ジェネア分類、クロスジェネア分類を行う。
論文 参考訳(メタデータ) (2020-02-01T17:57:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。